El posicionamiento en buscadores, optimización en motores de búsqueda o SEO (del inglés search engine optimization) es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio web en la lista de resultados de Google, Bing, u otros buscadores de internet. El SEO trabaja aspectos técnicos como la optimización de la estructura y los metadatos de una web, pero también se aplica a nivel de contenidos, con el objetivo de volverlos más útiles y relevantes para los usuarios.
Los administradores de páginas web y proveedores de contenido comenzaron a optimizar sitios web en los motores de búsqueda a mediados de la década de 1990, tan pronto los motores de búsqueda comenzaban a catalogar la primera Internet. En un principio, sitios como Yahoo! ofrecían la inclusión a los sitios que solicitasen motu proprio su indexación, que era manual.
Al comienzo, todo lo que los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o URL, a los diferentes motores, los cuales enviarían una araña web o rastreador web para inspeccionar ese sitio, extraer los vínculos hacia otras páginas que tenía esa web y devolver la información recogida para ser indexada. El proceso involucra a un araña web perteneciente al motor de búsqueda, que descarga una página y la almacena en los servidores de la empresa, donde un segundo programa, conocido como indexador, extrae información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas, la relevancia de palabras específicas y todos los vínculos que contiene la página, los cuales se almacenan para ser rastreados posteriormente por la araña web.
Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). De acuerdo con los análisis del experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a usarse en agosto 1997, por John Audette y su compañía, Multimedia Marketing Group, documentado en una página del sitio web de la compañía.
Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las metaetiquetas, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían causar, y causaron, que ciertas páginas se posicionaran muy alto para búsquedas irrelevantes. Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda. Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más importancia a los sitios más antiguos.
Debido a la importancia de factores como la densidad de palabras clave, la cual dependía totalmente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fueran falsos haría que los usuarios optaran por otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos para clasificar sitios web, tomando en cuenta factores adicionales para que fueran más difíciles de manipular por los administradores web.
Los estudiantes graduados en la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron Backrub, un motor de búsqueda que se basaba en un algoritmo matemático que puntuaba la relevancia de páginas web. PageRank fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa que algunos vínculos son más fuertes que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio.
Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los cuales les gustó su diseño sencillo, motivado por el hecho de que los fundadores no sabían HTML y se limitaron a colocar un cuadro de búsqueda y el logotipo de la empresa.
Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y estructura del sitio web, velocidad de carga de la página), para permitir a Google evitar el tipo de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones.
En el año 2000 Google lanzó la Google Toolbar, una barra de herramientas que entre otras cosas mostraba la métrica pública del PageRank. El PageRank de la barra de Google va de 0 a 10, siendo 10 el máximo, una valoración alcanzada por muy pocas webs. El PageRank público se fue actualizando periódicamente hasta diciembre de 2013, cuando tuvo lugar la última actualización hasta la fecha.
Aunque el PageRank era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular el PageRank. Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo a gran escala. Algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura (técnicas de linkbuilding).
En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.
En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se posiciona, puesto que su posición variaría en función de cada usuario, de cada búsqueda.
En 2005, Google también anunció una campaña en contra de la compra de enlaces con el fin de mejorar posiciones en el buscador y sugirió un nuevo atributo a añadir a estos enlaces comerciales, era rel="nofollow" (ejemplo de uso <a href="https://otrodominio.com" rel="nofollow">Visita esta web</a>). El atributo "nofollow" ofrece a los webmasters un modo de indicar a los motores de búsqueda "No seguir los enlaces de esta página" o "No seguir este enlace concreto"
En 2007 Matt Cutts afirmó que el uso de este atributo en los enlaces internos de una web también sería válido y efectivo para evitar transmitir PageRank hacia páginas internas de la propia web.
El resultado fue que hubo un uso generalizado de este atributo en los enlaces internos de los sites para alterar la distribución interna del PageRank.Dado la generalización de esta técnica por parte de los webmasters, en 2009 Google publicó que había tomado medidas para cambiar la manera en que valora y contabiliza estos enlaces nofollow a la hora de repartir el PageRank, y que ahora sí se tendrían en cuenta a la hora de distribuir PageRank, aunque no traspasase valor a la url de destino si se diluía el PageRank entre estos enlaces.
Con esto intentaba no fomentar que se usara este atributo nofollow con el único fin de modificar la distribución del PageRank a través de los enlaces internos de una web.Para poder seguir evitando la distribución de PageRank entre urls poco de una web, algunos SEOs y webmasters desarrollaron distintas técnicas alternativas que cambian los enlaces nofollow, que antes era válido, por otras etiquetas HTML (como < span > o < div >) que Google no contabiliza como enlaces, pero que para los usuarios se comportan de la misma manera que un enlace. Para ello se hace uso de Javascript y ofuscado la url con una codificación en Base64, permitiendo controlar de esta manera la distribución de PageRank sin tener que usar el "polémico" atributo nofollow.
En diciembre de 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para elaborar los resultados de búsqueda.
Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de web han gastado meses o incluso años en optimizar un sitio web para mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda.
En febrero de 2011, Google anunció la actualización "Panda", la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, sin embargo, Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.
En abril del 2012, Google anunció la actualización "Penguin" cuyo objetivo era penalizar a aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings. (Spam SEO o Spam Web).
En septiembre de 2013, Google anunció la actualización "Colibrí", un cambio en el algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de páginas web. (eficiencia del HTML5).
El posicionamiento natural u orgánico es el que consigue una web de forma espontánea, sin que medie una campaña publicitaria. Se basa en la indización o indexación que realizan unas aplicaciones denominadas arañas web para los motores de búsqueda. En esta indización, las arañas web recorren las páginas web y almacenan las palabras clave relevantes en base de datos.
El interés del webmaster es optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de linkbuilding, linkbaiting o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones. El objetivo es aparecer en las posiciones más altas posibles de los resultados de búsqueda orgánica para una o varias palabras claves concretas.
La optimización se realiza en dos sentidos:
Los buscadores suelen mostrar resultados orgánicos o naturales en un área[cita requerida], a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago de ciertos servicios especiales, como Google Ads o Microsoft Ad Center, y se conoce como marketing en motores de búsqueda (en inglés, search engine marketing, frecuentemente abreviado SEM).
El servicio de Google Ads se puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clics (número de veces que además de salir impreso nuestro anuncio, será visitado o clicado por el cliente).
En la siguiente imagen puede apreciarse de forma gráfica la diferencia entre el posicionamiento orgánico y pagado. En ella se señalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads, que también son conocidos como SEM (Search Engine Marketing).
Las actividades a desarrollarse involucran tanto cambios de programación, diseño y contenidos, las mismas alineadas a las directrices emitidas por los buscadores como buenas prácticas. Buscadores como Google
y Bing han emitido lineamientos al respecto.Se divide en posicionamiento interno y externo:
Son mejoras que el desarrollador web puede aplicar sobre el sitio en cuanto al contenido, apariencia, accesibilidad, etc.
Son aquellas técnicas que se emplean para mejorar la notoriedad de la web en los medios en línea. Por norma general, se busca conseguir menciones en la red, en forma de enlace, de la web a optimizar.
Rasgos públicos: Entiéndase por estos a los que son de índole declarada por los administradores o creadores de dicho algoritmo, por ejemplo podemos saber que el algoritmo de Google tienes ciertos aspectos técnicos que penalizan ciertos accionares de los administradores web o redactores de contenido. Un ejemplo práctico es Google Panda, que tiene como principal objetivo eliminar contenido copiado, duplicado o irrelevante por ser considerado Spam Web también llamado Spam SEO. Google Penguin en cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etc. También vé un factor humano importante para el Seo como es porcentaje de rebote de una página web.
Rasgos privados: Son aquellos que son mantenidos en secretos por los creadores o administradores de dicho contenido, esto es para que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web.
Rasgos sospechados: Son aquellos rasgos secretos discernidos en la práctica misma de la actividad, los mismos no son de carácter oficial, pero al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por ejemplo se ha descubierto que a pesar de todo lo dicho por los creadores lo más importante para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.
Linkbuilding o construcción de enlaces, es una técnica de SEO que consiste en conseguir que otras páginas web enlacen a la página que interesa que los buscadores consideren relevante y la posicionen mejor en sus rankings. La técnica puede hacerse de manera natural, cuando otras webs enlazan sin previo acuerdo por algún hecho o dicho, o bien de manera artificial, cuando se simula que los enlaces se han conseguido de manera natural.
Conseguir enlaces de forma artificial (linkbuilding) es una técnica que infringe las directrices para webmasters de Google. Está considerada una práctica "blackhat" y puede conllevar la pérdida de posiciones de una web por penalización por enlaces.
Esta se basa en el concepto de que uno de los factores que se incluyen dentro de la evaluación del ranking de una página es la cantidad de enlaces entrantes que tiene una página, concepto basado en el hecho de que el número de enlaces entrantes constituía uno de los factores evaluados en PageRank en 1999 por Google
Las ventajas son:
En promedio 1.5 horas[cita requerida] se utiliza para realizar linkbuilding. Sin embargo, esto depende de la capacidad del proyecto, en todo caso se[¿quién?] recomienda siempre tener un comportamiento natural ya que el buscador/es pueden sospechar de estrategias black hat SEO utilizadas para obtener mayor cantidad de enlaces no-naturales en menor tiempo, lo que conlleva a una penalización por parte del buscador hacia la web que realiza estas técnicas.
Comentarios en artículos: otra forma, no menos importante, es la de generar backlinks desde comentarios de artículos, es también una de las formas más fáciles de conseguir enlaces. Google da prioridad a los enlaces que hay en los comentarios de alguna entrada,[cita requerida] y los reconoce como un backlink válido.[cita requerida] Los comentarios en artículos siempre son aprobados o rechazados por un webmaster.
Compra de enlaces: los enlaces de pago o bolsa de enlaces, son utilizados por gran cantidad de expertos en SEO y webmaster con el fin de ahorrarse tiempo buscando ellos mismos los enlaces hacia sus sitios. Muchos sitios en línea se dedican a la venta de enlaces con alto PageRank. Google por su parte considera esta técnica como black hat SEO también y por ende penaliza a quienes lo hacen.[cita requerida]
Tipos de linkbuilding:
Algunas de estas nuevas tecnologías son:
A medida que avanza la comprensión de los que los usuarios desean encontrar en el buscador y lo que los webmasters ofrecen, Google ha ido actualizando
su algoritmo a lo largo del tiempo, lo que a su vez ha podido afectar al posicionamiento de todos los sitios en Internet sea cual sea su temática o sector.Google ha llevado a cabo algunos cambios en la documentación de ayuda para los webmasters, especialmente en lo que a ranking se refiere. Hasta el 27 de mayo de 2013 decía:
Tras los cambios, pasó a decir:
Este cambio es consistente con lo que Google quiere de los administradores de sitios web: menos linkbuilding y más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. Dentro de estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se realizan en la página, y las veces que se comparten en las redes sociales. Cabe mencionar las herramientas proporcionadas por Google y Bing, etc. como Herramientas de Webmaster de Google y Google Analytics (gratuita y de pago).
El 20 de mayo de 2014 Google actualizó el algoritmo de su buscador, específicamente el «Panda» a Panda 4.0 con lo que empresas reconocidas del sector como: PRWeb.com, BusinessWire.com, etc. vieron reducidas sus posiciones en el buscador debido a la actualización mencionada.
En 2016 Google incorpora el proyecto AMP páginas aceleradas móviles. Es una iniciativa open source con objetivo de que el usuario acceda al contenido de una manera más rápida y sencilla, de manera casi instantánea, evitando demoras en la carga de los sitios web. Implementar AMP en un portal tiene un impacto positivo en el posicionamiento web para búsquedas móviles. El 4 de noviembre de 2016 Google mediante un comunicado oficial indicó que indexaría los contenidos dando prioridad a las webs para móviles frente a las desktop, por lo que la utilización de AMP también afecta los resultados para las búsquedas en desktop
oEn 2021 toma gran fuerza la búsqueda mediante la voz gracias a productos como Google Home, Alexa y los teléfonos inteligentes. Los usuarios se familiarizan con realizar búsquedas a través del audio. El SEO no solamente se realiza en texto o imágenes sino también se tiene en cuenta los vídeos y los podcasts.
Escribe un comentario o lo que quieras sobre Optimización en motores de búsqueda (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)