Google Search
23 / 11 / 2022

Nueva guía de Google sobre los sistemas de clasificación de la Búsqueda

Bruno Díaz Marketing Manager
Bruno Díaz
Marketing Manager
SectorHablamos de

Google está trabajando para ser más transparente con toda la documentación que afecta al SEO en su motor de búsqueda

Lo explicamos recientemente con el lanzamiento de Google Search Essentials. Google está trabajando para ser más transparente con toda la documentación que afecta al SEO en su motor de búsqueda. En este caso presenta una nueva guía para entender los sistemas que usan para obtener las posiciones de búsquedas, los ranking en las SERP. Lo han anunciando a través de su blog para SEO.

Esta guía sobre los rankings de Google, por ahora sólo publicada en inglés, aporta pocas novedades respecto a lo que ya sabíamos los SEOs que seguimos de cerca a los algoritmos de Google. Sin embargo, por primera vez obtenemos toda esa información unificada, muy bien ordenada y explicada de forma muy pedagógica.

Cómo Google usa sus sistemas de clasificación

En la guía Google nos explica que utilizan “sistemas de clasificación automatizados” que analizan muchos factores de nuestras páginas web, y los usan para presentar “los resultados más relevantes y útiles”, todo en una fracción de segundo. Realmente en esta primera frase ya tenemos lo más esencial si queremos hacer SEO: plantearnos qué será el contenido más relevante y útil para mis clientes y sus intenciones de búsqueda.

En segundo lugar, Google confirma que realizan pruebas y ajustes constantes en todos estos sistemas de ranking, y que sólo en ocasiones notifican sobre esas actualizaciones, “cuando pueden ser útiles para los creadores de contenido y otros”. Ya hemos hablado en otras ocasiones sobre cómo en ocasiones hay actualizaciones importantes que no se comunican, y en cambio otras que no nombraremos, que se anuncian a bombo y platillo para que tengan impacto en los creadores de contenido, pero sin embargo no alteran prácticamente nada los resultados.

Los principales sistemas de ranking de Google

1. BERT

No es casualidad que sea el primero en nombrar en la guía. Las representaciones de codificador bidireccional de los transformadores (BERT, Albert en catalán) es un sistema de IA que usa Google para intentar comprender cómo las combinaciones de palabras expresan diferentes significados e intenciones. Si realizáis una prueba veréis como cambiando una sola palabra, matiz o incluso una letra en nuestra búsqueda, nos dará resultados distintos. No obstante el mismo Google reconoce que están trabajando en mejoras y que todavía no abarca a todas las búsquedas.

2. Información en crisis

Sí nos ha sorprendido esta segunda posición, quizá sea temporal. Google ha desarrollado sistemas para brindar información útil y oportuna durante tiempos de crisis, ya sea que se trate de situaciones de crisis personales, desastres naturales u otras situaciones de crisis generalizadas. Lo hemos visto recientemente en casos como el COVID o la guerra de Ucrania. Los dos supuestos que Google comenta en su guía son:

  • Crisis personal: Google intenta comprender cuándo las personas buscan información sobre situaciones de crisis personal relacionadas con suicidio, agresión sexual, ingesta de veneno, violencia de género o adicción a las drogas. En estos casos el buscador le muestra al usuario líneas de teléfono directas habilitadas por las autoridades, o bien y contenido de organizaciones confiables para ciertas consultas
  • Alertas SOS: ante desastres naturales o situaciones de crisis generalizadas, su sistema de Alertas SOS funciona para mostrar actualizaciones de las autoridades locales, nacionales o internacionales: números de teléfono y sitios web de emergencia, mapas, u campañas de donaciones son los más habituales.

3. Contenido duplicado

Las arañas en Google pueden encontrar miles, o incluso millones de páginas web coincidentes. Algunos de estos resultados pueden ser muy similares entre sí. En tales casos, nuestros sistemas muestran solo los resultados más relevantes para evitar duplicaciones inútiles. Cobra importancia pues el valor del contenido original, y devalúa esas notas de prensa que mágicamente se publican de forma idéntica y simultánea en decenas de medios.

Una novedad muy importante en este punto que nos aporta la guía, es que reconoce que la deduplicación también ocurre con fragmentos destacados. Si una lista de páginas web se eleva para convertirse en un fragmento destacado, no se debería repetir la lista más adelante en la primera página de resultados. Esto ordena los resultados y ayuda a las personas a localizar la información relevante más fácilmente.

4. Dominio de coincidencia exacta

Los sistemas de clasificación de Google consideran las palabras de los nombres de dominio como uno de los muchos factores para determinar si el contenido es relevante para una búsqueda. Los EDM (Exact Match Domain) nunca han pasado del todo de moda, pero se agradece este reconocimiento tan explícito. Pero ojo a su vez Google explica que sus sistema identifica webs que han sido creadas explícitamente para eso, y lo pondera con otros sistemas de filtro y control. Para que tampoco nos liemos a hacer webs como churros para cubrir búsquedas longtail.

5. Frescura de contenidos

Google comenta que tienen un sistema “para mostrar contenido más actualizado para consultas donde se esperaría”. La clave está en esto último, en qué tipo de búsquedas va a considerar que la fecha de publicación o actualización es clave para que un contenido sea útil. Pero en cualquier caso, para todo aquello que sea de actualidad los resultados premiarán los resultados más recientes, y en el resto será un factor más a tener en cuenta. De todos modos el freshness ha llegado para quedarse y es obligada una revisión periódica de nuestros contenidos, además de combinarlo con contenido nuevo 100%.

6. Contenido útil

Google vuelve a hacer énfasis en lo que ellos denominan “contenido útil”, aquel creado por personas y para personas. Dicen que estos contenidos se van a priorizar en los resultados de búsqueda, en lugar de contenido creado principalmente para obtener tráfico de motores de búsqueda. Este punto lo abordamos a fondo en nuestro post sobre el Helpful Content Update.

7. Enlaces y PageRank

Fijémonos que Google trata antes aspectos de contenido que los enlaces. La compañía confirma que tienen “sistemas que entienden cómo las páginas se vinculan entre sí como una forma de determinar de qué páginas tratan y cuáles pueden ser más útiles en respuesta a una consulta”. Y menciona el famoso PageRank como uno de los principales sistemas que usa, es curioso porque hace años que no existe según algunos gurús SEO.

8. Noticias locales

Estos sistemas funcionan para identificar y mostrar fuentes locales de noticias siempre que sea relevante, como a través de features como "Historias destacadas" y "Noticias locales". Esto pasa en prácticamente todos los contenidos de las SERP, también los de web, eventos o mapas.

9. MUM

El Modelo Unificado Multitarea (MUM) es un sistema de IA capaz de comprender y generar lenguaje. Google afirma que “actualmente no se usa para la clasificación general en la Búsqueda, sino para algunas aplicaciones específicas, como mejorar las búsquedas de información sobre la vacuna COVID-19 y para mejorar las llamadas de fragmentos destacados que mostramos”. De todos formas habrá que estar alerta y darle mucho mimo a nuestros datos estructurados, es algo que venimos repitiendo en otros posts y que cada vez goza de más importancia.

10. Emparejamiento neuronal

El emparejamiento o coincidencia neuronal es un sistema de inteligencia artificial que utiliza Google para comprender las representaciones de conceptos en consultas y páginas y relacionarlos entre sí. Recuerda que por muy inteligente que sea siempre le podemos ayudar a identificar los elementos con su title, ALT y demás.

11. Contenido original

Google confirma que cuenta con “sistemas para ayudar a garantizar que mostramos el contenido original de manera destacada en los resultados de búsqueda, incluidos los informes originales, por delante de aquellos que simplemente lo citan”. Esto no significa que no podamos citar informes o noticias, como estamos haciendo en este post. Lo que sí es relevante es que además de citar la fuente aportemos valor: dando contexto, compartiendo nuestra opinión, incluyendo ejemplos y experiencias relacionadas, etcétera. Pero el contenido duplicado puede ser entre sitios o dentro de un mismo sitio: Google recomienda explícitamente que usemos las etiquetas canónicas, para ayudar a las arañas a “comprender mejor cuál es la página principal si una página se ha duplicado en varios lugares”. Esto es algo muy habitual en sitios grandes que usen buscadores o filtros, entre otros.

12. Contenido denunciado

Google tiene políticas que permiten la eliminación de ciertos tipos de contenido. La mayoría de ellos tienen relación con el plagio, la piratería o temáticas que hieran la sensibilidad. Se contemplan básicamente dos supuestos:

  • Eliminaciones legales: cuando reciben un gran volumen de solicitudes válidas de eliminación de derechos de autor relacionadas con un sitio determinado, avisan que pueden “usar eso para degradar otro contenido del sitio en nuestros resultados”. Ojo, esto afectaría al conjunto del sitio y no sólo al contenido retirado.
  • Eliminaciones de información personal: existen webs que publican informaciones personales sin nuestro consentimiento. Igual que en el caso anterior, Google confirme que si reciben un gran volumen de eliminaciones de información personal que involucran un sitio, se puede degradar en los resultados al conjunto del sitio. Google persigue especialmente los contenidos que puedan ser considerados doxxing (acoso online), así como con imágenes explícitas.

13. Page Experience

Los usuarios prefieren sitios que ofrecen una gran experiencia de página. Es por eso que cuentan con un sistema de experiencia de página que evalúa una variedad de criterios, como la rapidez con la que se cargan las páginas, la compatibilidad con dispositivos móviles, si las páginas carecen de intersticiales intrusivos y si las páginas se publican de manera segura. Ojo Google confirma que no es factor de posicionamiento por sí solo PERO “en situaciones en las que hay muchas coincidencias posibles con una relevancia relativamente igual, el sistema ayuda a dar preferencia al contenido con una mejor experiencia de página”. Las optimizaciones de los Core Web Vitals y demás deben ser parte fundamental de nuestro trabajo SEO, si bien antes se deben haber atacado bien aspectos estratégicos, de contenido y técnicos.

14. Pasajes en contenido

La clasificación de pasajes es un sistema de inteligencia artificial (IA) que utilizan para identificar secciones individuales o "pasajes" de una página web. Eso quiere decir que a veces no nos van a posicionar por el tema principal de un contenido para una determinada búsqueda, sino que nos va a destacar y llevar a la parte donde se aborda una cuestión concreta, la que consulta el usuario. Para poder sacar partido es muy importante que estructuremos bien nuestros contenidos mediante encabezados que jerarquicen el contenido (h2, h3, h4…), y en el caso de contar con contenidos extensos como este, podemos usar sistemas de acceso a los apartados como las TOC (Table Of Contents), que encontraréis al inicio de nuestros posts con cierta extensión.

15. Reseñas de productos

El sistema de reseñas de productos tiene como objetivo recompensar mejor las reseñas de productos de alta calidad. Google está intentando penalizar webs de afiliados con contenido refrito y sin valor original. Buscan que el “contenido que proporciona tenga un análisis perspicaz y una investigación original, y está escrito por expertos o entusiastas que conocen bien el tema”. De ahí vienen los recientes Product Review Update. Al buscador no le importan los afiliados mientras mostremos que hemos probado el producto, aportemos opinión y una guía de decisión a los usuarios, y ofrezcamos más de una opción de compra a nuestro lector, en una práctica antimonopolio que apunta claramente a Amazon.

16. RankBrain

RankBrain es un sistema de inteligencia artificial que ayuda a Google a comprender cómo se relacionan las palabras con los conceptos. Significa que intenta comprender el contexto, la intención de búsqueda, las inonímias o los conceptos relacionados. Es por eso que hemos insistido en algunos posts sobre contenidos para SEO en la importancia de usar un vocabulario rico y amplio sobre una temática, y no centrarse en una keywords e irla repitiendo constantemente.

17. Webs confiables

Múltiples sistemas funcionan de varias maneras para mostrar en la búsqueda la información más confiable posible, como para ayudar a mostrar páginas más autorizadas y degradar el contenido de baja calidad y premiar lo que Google llama “periodismo de calidad”. Es un intento claro de Google para frenar el auge de los medios sensacionalistas y amantes del clickbait. Para lograr que nuestro sitio sea más confiable, especialmente si tocamos aspectos de dinero o salud, pero también para todo tipo de medios y blogs, es importante entender qué es el EAT y cómo trabajarlo.

18. Diversificación de sitios en resultados

Hace ya unos años que Google lanzó su sistema de diversidad de sitios funciona de modo que, por lo general, no se muestran más de dos listados de páginas web del mismo sitio en nuestros resultados principales, de modo que ningún sitio tiende a dominar todos los resultados principales. Esto ha frenado determinados monopolios, y dado más juego a diversidad de actores. Por lo general, veréis que funciona bien. Un aspecto importante es que desde Google confirman que los subdominios se consideran en principio parte del mismo sitio, por lo que atacar una misma búsqueda con dos subdominios de un mismo dominio sería una entretenida pérdida de tiempo.

19. Detección del SPAM

Internet incluye enormes cantidades de spam y los resultados de búsqueda no se escapan de ello. Tienen a SpamBrain y otros sistemas para contenerlo, aunque eliminarlo es tarea imposible.

20. Sistemas retirados

Google guarda un apartado especial a aquellos sistemas que ya no se usan pero, ojo, "se han incorporado a los sistemas sucesores o se han convertido en parte de nuestros sistemas de clasificación principales". Muchos de ellos los hemos analizado en su momento en este blog. Su filosofía sigue intacta así que parecería temerario hacer como si ya no existieran:

  • Colibrí: ya ha llovido mucho desde entonces, pero fue toda una revolución al empezar a relacionar y entender conceptos complejos
  • Sistema de clasificación compatible con dispositivos móviles (ahora parte del Page Experience). Básicamente priorizaba resultados de sitios optimizados para móviles.
  • Page Speed, que priorizaba a webs con mejor velocidad de carga, especialmente en móviles. Ahora forma parte también del concepto más amplio de Page Experience.
  • Panda: este animal adorable hizo daño merecido a muchos sitios desde 2011. En 2015 se incorpora como parte troncal del sistema.
  • Penguin: otra simpática criatura lanzada no contra contenido basura como Panda, sino para perseguir las malas prácticas en linkbuilding. Después del terremoto causado en 2012, pasó con los años también al sistema general.
  • Sistema de sitios seguros: lanzado en 2014, significó que cuando todo fuera igual, los sitios protegidos con HTTPS tendrían mejores resultados en los sistemas de clasificación. Ya hace tiempo que forma parte del sistema general, y ya prácticamente todos los sitios tienen https, con la popularización de certificados gratuitos como Let's Encrypt. Continúa siendo un must, aunque ya no es elemento diferenciador.
Bruno Díaz Marketing Manager
Sobre el autor/a
Bruno Díaz — Marketing Manager
Profesional de larga trayectoria como consultor de comunicación y marketing digital, y especializado en SEO, SEM y proyectos web. Como Marketing Manager de la agencia, coordino a un equipazo de técnicos de marketing digital del cual estoy muy orgulloso.

Noticias relacionadas

¿Tienes un proyecto en mente? Cuéntanoslo