En este post analizaremos los principales algoritmos que Google usa para rastrear, indexar y ranquear nuestras páginas web. Dado que es imposible abordarlos todos en este post, hemos hecho una selección de los más importantes, y los hemos ordenado cronológicamente. Este post se irá actualizando con el tiempo, conforme Google confirme nuevos algoritmos importantes que afecten al posicionamiento SEO.
¿Qué es un algoritmo de Google?
Son aplicaciones informáticas creadas por Google que pretenden emular una moderación humana de las páginas web. En base a los datos que los usuarios facilitan a Google mediante su navegación, este intenta usarlos para analizar, clasificar y ordenar los resultados de nuestras URLs.
En el complejo entramado de Google, conviven cientos de algoritmos distintos, y cada uno tiene una tarea encomendada. A partir de la información que estos reportan, Google pondera los elementos con su fórmula de Coca-Cola, y acaban determinando bajo qué búsquedas en Google aparecen los resultados de mi página web, y con qué apariencia.
Un aspecto a tener en cuenta es que Google actualiza constantemente sus algoritmos. Concretamente lo hace cada 17 horas, es decir, unas 500 veces al año. No te preocupes que no debes revisar esto todos los días, pues la mayoría de esas actualizaciones tienen impacto mínimo por sí solas. Sí hay que tener muy en cuenta los nuevos algoritmos que suponen un cambio de paradigma respecto a lo que Google valoraba y que sufra una gran mutación (ahora veremos algunos ejemplos), y sobre todo hay que estar muy atentos a los Core Updates, los cambios que afecten al núcleo de la fórmula secreta.
Cuando hay una actualización de este tipo, vemos como millones de resultados cambian sus posiciones en Google de la noche a la mañana, representando un auténtico quebradero de cabeza para los profesionales SEO, y es algo especialmente entrañable a las puertas de la Navidad.
Los principales algoritmos de Google
Presentamos el listado de algoritmos ordenados por fecha de lanzamiento, de más a menos recientes.
- 2019, BERT. Tiene nombre casi humano, y es que de eso mismo se trata. El Bidirectional Encoder Representations from Transformers (este sería su nombre y apellidos), es una red neuronal de código abierto que pretende entender nuestro lenguaje natural, para comprender mejor el contexto e intención de nuestra búsqueda. Es algo tan complejo y costoso de implementar a nivel de recursos que por ahora sólo se usa en el 10% de las búsquedas, pero irá en aumento y oiremos hablar mucho de él. Un ejemplo práctico es que si hacemos una búsqueda longtail, y le colocamos una preposición en medio como "para" o "por, tendrá en cuenta lo que implica eso en tu intención de búsqueda, y te entregará los resultados acordes.
- 2018, Mobile First Indexing. Desde 2018 lo que Google vea en tu versión web para escritorio es irrelevante. Sólo tiene en cuenta lo que ve a través de una visita móvil. Si tu web no está adaptada para móviles, serás penalizado. Si tienes una versión para PC y otra para móviles (tipo m.miweb.com), tendrás menor valoración. Y muy importante: si tienes una web con un montón de contenido, pero en versión móvil lo escondes porque queda más bonito, pues no contará en absoluto a efectos SEO. Los contenidos deben ser los mismos, se acceda desde el dispositivo que sea, adaptando el contenido a cada pantalla. No fue hasta 2023 que Google anunció que se completó el despliegue del mobile first indexing. 5 años, casi nada.
- 2018, Brackets. En este caso Google quiso mostrarnos una mejor sonrisa. Está actualización supuso una serie de procesos para primar las webs con contenido de calidad, pero que quizá no estaban realizando otras prácticas más de SEO técnico o linkbuilding. Un aspecto muy importante es que ha beneficiado los sitios que etiquetan correctamente sus contenidos mediante tarjetas enriquecidas ( Rich Snippets ).
- 2017, Google Fred. Este frío algoritmo vino para medir mejor la calidad y cantidad de los backlinks, los enlaces entrantes de otras webs hacia las nuestras. El objetivo era penalizar la compraventa de enlaces, pero también redes de monetización de contenido, PBNs o el uso abusivo de la publicidad en los sites (a Google no le aplica, claro).
- 2017, Google Owl. Este cambio significó una limpieza importante de las SERPS de contenido de poca calidad, falso o desagradable. Un avance de lo que ahora llamamos fake news.
- 2015, Mobile Friendly. A partir de entonces supimos que Google comenzaría a primar las webs que estuvieran correctamente adaptadas a dispositivos móviles. Se comienzan a valorar aspectos como que el diseño webresponsive, el peso de la página y su velocidad de carga, la minimización de CSS y JS, y la prohibición del uso de Flash.
- 2015, Rankbrain. Este es el primer algoritmo de Google que emplea de inteligencia artificial, machine learning. Rankbrain tiene un proceso de aprendizaje automatizado, con el objetivo de comprender los patrones de búsqueda y las necesidades del usuario. Y, además, lo muestra a través de resultados enriquecidos. Es decir que si busco en Google (o le pregunto a Google Home, más bien) qué tiempo hace hoy, ya no veo resultados de páginas web donde consultar, sino que verá el tiempo de hoy en mi ciudad en los resultados de Google, de forma gráficamente atractiva. Esto, acertando en la intención de búsqueda del usuario es bueno para este, pero ha fastidiadomucho a los webmasters, pues pocos usuarios harán clic a resultados de web, teniendo ya la respuesta gracias a Rankbrain y sin salir de Google. A nivel semántico es relevante porque procesa cada vez mejor aspectos como la sinonímia, o bien búsquedas con acento o sin o con faltas de ortografía (donde siguen mejorando, pero no es perfecto).
- 2013, Payday Loan. Este algoritmo representó un antes y un después para prácticas ilegales SEO (Black Hat), y pretendía tratar con más cuidado contenidos relacionados con la pornografía o los medicamentos. Recientemente con el COVID hemos visto los esfuerzos de Google para filtrar los contenidos sobre la pandemia, sus causas o posibles curas.
- 2012, Knowledge Graph. Este es un paso importante de Google de mayor obertura. A partir de ese momento Google también muestra en los resultados, para determinadas búsquedas, información relevante y de forma atractiva de fuentes importantes como Wikipedia o Facebook.
- 2012, Google Venice. Hasta Venice, si alguien buscaba "agencia web" desde Barcelona, por ejemplo, Google le mostraba los mejores resultados a nivel estatal. A partir de entonces, Google pasó a entender que, si estoy buscando el servicio X, y estoy situado en Barcelona, quizá sea más útil para el usuario mostrarle resultados de Barcelona.
- 2012, Google Layout. Esta actualización vino a perseguir aquellas webs que abusaban de los anuncios, especialmente aquellas que abarrotaban la parte superior de las páginas de anuncios y costaba llegar al contenido, así como el uso excesivo e invasivo de pop-ups, ventanas emergentes.
- 2012, Penguin. Nuevamente con este nombre se conoció un update de Google muy potente, pero hasta 2016 no se incorporaría al algoritmo general. Su objetivo principal es detectar perfiles de enlaces poco naturales, y penalizarlos (o por lo menos no tenerlos en cuenta). No fue la muerte del linkbuilding como se anunció, pero es un tipo de práctica que desde entonces hay que hacer con cariño y cuidado.
- 2011, Panda. En este año se lanzó el update llamado Panda, y que fue toda una revolución. Sin embargo se añadió al core de Google con normalidad y consolidado en 2016. Su objetivo es el de combatir el contenido de baja calidad y el SPAM.
- 2010, Google Humminbird. Es difícil de pronunciar, pero sencillo de comprender. Aquí el buscador empezó a comprender mejor las búsquedas de cola larga, ya pensando en las búsquedas por móvil o voz, y los micro momentos del usuario. Aparecen por primera vez conceptos clave hoy día en SEO como entidades o intención de búsqueda. A raíz de ello empiezan a diversificarse los resultados en las SERPs com fragmentos destacados, listings de maps, etc.
- 2009, Caffeine. Este algoritmo no afectó directamente a los resultados, pero sí indirectamente. Google inyectó cafeína a sus arañas, multiplicando la velocidad de rastreo. Esto implicó que Google podía analizar y ranquear muchas más páginas, y de forma más rápida. Más crawl budget. Por desgracia se fue un poco de las manos, indexó de más, y se corrigió más adelante mediante actualizaciones posteriores, como Panda.
- 2009, Vince. Las quejas de las grandes marcas llevaron a Google a rectificar. Hasta entonces ante una búsqueda de marca, podían salir perfectamente 4-5 resultados de webs de calidad discreta, antes que la web propia de la marca. Desde entonces Google registra las marcas, acredita sus webs oficiales, y las prioriza en las búsquedas de marca.
Los cientos de algoritmos de Google son la herramienta clave para aparecer en la primera página de búsquedas.