Lo explicamos recientemente con el lanzamiento de Google Search Essentials. Google está trabajando para ser más transparente con toda la documentación que afecta al SEO en su motor de búsqueda. En este caso presenta una nueva guía para entender los sistemas que usan para obtener las posiciones de búsquedas, los ranking en las SERP. Lo han anunciando a través de su blog para SEO.
Esta guía sobre los rankings de Google, por ahora sólo publicada en inglés, aporta pocas novedades respecto a lo que ya sabíamos los SEOs que seguimos de cerca a los algoritmos de Google. Sin embargo, por primera vez obtenemos toda esa información unificada, muy bien ordenada y explicada de forma muy pedagógica.
En la guía Google nos explica que utilizan “sistemas de clasificación automatizados” que analizan muchos factores de nuestras páginas web, y los usan para presentar “los resultados más relevantes y útiles”, todo en una fracción de segundo. Realmente en esta primera frase ya tenemos lo más esencial si queremos hacer SEO: plantearnos qué será el contenido más relevante y útil para mis clientes y sus intenciones de búsqueda.
En segundo lugar, Google confirma que realizan pruebas y ajustes constantes en todos estos sistemas de ranking, y que sólo en ocasiones notifican sobre esas actualizaciones, “cuando pueden ser útiles para los creadores de contenido y otros”. Ya hemos hablado en otras ocasiones sobre cómo en ocasiones hay actualizaciones importantes que no se comunican, y en cambio otras que no nombraremos, que se anuncian a bombo y platillo para que tengan impacto en los creadores de contenido, pero sin embargo no alteran prácticamente nada los resultados.
No es casualidad que sea el primero en nombrar en la guía. Las representaciones de codificador bidireccional de los transformadores (BERT, Albert en catalán) es un sistema de IA que usa Google para intentar comprender cómo las combinaciones de palabras expresan diferentes significados e intenciones. Si realizáis una prueba veréis como cambiando una sola palabra, matiz o incluso una letra en nuestra búsqueda, nos dará resultados distintos. No obstante el mismo Google reconoce que están trabajando en mejoras y que todavía no abarca a todas las búsquedas.
Sí nos ha sorprendido esta segunda posición, quizá sea temporal. Google ha desarrollado sistemas para brindar información útil y oportuna durante tiempos de crisis, ya sea que se trate de situaciones de crisis personales, desastres naturales u otras situaciones de crisis generalizadas. Lo hemos visto recientemente en casos como el COVID o la guerra de Ucrania. Los dos supuestos que Google comenta en su guía son:
Las arañas en Google pueden encontrar miles, o incluso millones de páginas web coincidentes. Algunos de estos resultados pueden ser muy similares entre sí. En tales casos, nuestros sistemas muestran solo los resultados más relevantes para evitar duplicaciones inútiles. Cobra importancia pues el valor del contenido original, y devalúa esas notas de prensa que mágicamente se publican de forma idéntica y simultánea en decenas de medios.
Una novedad muy importante en este punto que nos aporta la guía, es que reconoce que la deduplicación también ocurre con fragmentos destacados. Si una lista de páginas web se eleva para convertirse en un fragmento destacado, no se debería repetir la lista más adelante en la primera página de resultados. Esto ordena los resultados y ayuda a las personas a localizar la información relevante más fácilmente.
Los sistemas de clasificación de Google consideran las palabras de los nombres de dominio como uno de los muchos factores para determinar si el contenido es relevante para una búsqueda. Los EDM (Exact Match Domain) nunca han pasado del todo de moda, pero se agradece este reconocimiento tan explícito. Pero ojo a su vez Google explica que sus sistema identifica webs que han sido creadas explícitamente para eso, y lo pondera con otros sistemas de filtro y control. Para que tampoco nos liemos a hacer webs como churros para cubrir búsquedas longtail.
Google comenta que tienen un sistema “para mostrar contenido más actualizado para consultas donde se esperaría”. La clave está en esto último, en qué tipo de búsquedas va a considerar que la fecha de publicación o actualización es clave para que un contenido sea útil. Pero en cualquier caso, para todo aquello que sea de actualidad los resultados premiarán los resultados más recientes, y en el resto será un factor más a tener en cuenta. De todos modos el freshness ha llegado para quedarse y es obligada una revisión periódica de nuestros contenidos, además de combinarlo con contenido nuevo 100%.
Google vuelve a hacer énfasis en lo que ellos denominan “contenido útil”, aquel creado por personas y para personas. Dicen que estos contenidos se van a priorizar en los resultados de búsqueda, en lugar de contenido creado principalmente para obtener tráfico de motores de búsqueda. Este punto lo abordamos a fondo en nuestro post sobre el Helpful Content Update.
Fijémonos que Google trata antes aspectos de contenido que los enlaces. La compañía confirma que tienen “sistemas que entienden cómo las páginas se vinculan entre sí como una forma de determinar de qué páginas tratan y cuáles pueden ser más útiles en respuesta a una consulta”. Y menciona el famoso PageRank como uno de los principales sistemas que usa, es curioso porque hace años que no existe según algunos gurús SEO.
Estos sistemas funcionan para identificar y mostrar fuentes locales de noticias siempre que sea relevante, como a través de features como "Historias destacadas" y "Noticias locales". Esto pasa en prácticamente todos los contenidos de las SERP, también los de web, eventos o mapas.
El Modelo Unificado Multitarea (MUM) es un sistema de IA capaz de comprender y generar lenguaje. Google afirma que “actualmente no se usa para la clasificación general en la Búsqueda, sino para algunas aplicaciones específicas, como mejorar las búsquedas de información sobre la vacuna COVID-19 y para mejorar las llamadas de fragmentos destacados que mostramos”. De todos formas habrá que estar alerta y darle mucho mimo a nuestros datos estructurados, es algo que venimos repitiendo en otros posts y que cada vez goza de más importancia.
El emparejamiento o coincidencia neuronal es un sistema de inteligencia artificial que utiliza Google para comprender las representaciones de conceptos en consultas y páginas y relacionarlos entre sí. Recuerda que por muy inteligente que sea siempre le podemos ayudar a identificar los elementos con su title, ALT y demás.
Google confirma que cuenta con “sistemas para ayudar a garantizar que mostramos el contenido original de manera destacada en los resultados de búsqueda, incluidos los informes originales, por delante de aquellos que simplemente lo citan”. Esto no significa que no podamos citar informes o noticias, como estamos haciendo en este post. Lo que sí es relevante es que además de citar la fuente aportemos valor: dando contexto, compartiendo nuestra opinión, incluyendo ejemplos y experiencias relacionadas, etcétera. Pero el contenido duplicado puede ser entre sitios o dentro de un mismo sitio: Google recomienda explícitamente que usemos las etiquetas canónicas, para ayudar a las arañas a “comprender mejor cuál es la página principal si una página se ha duplicado en varios lugares”. Esto es algo muy habitual en sitios grandes que usen buscadores o filtros, entre otros.
Google tiene políticas que permiten la eliminación de ciertos tipos de contenido. La mayoría de ellos tienen relación con el plagio, la piratería o temáticas que hieran la sensibilidad. Se contemplan básicamente dos supuestos:
Los usuarios prefieren sitios que ofrecen una gran experiencia de página. Es por eso que cuentan con un sistema de experiencia de página que evalúa una variedad de criterios, como la rapidez con la que se cargan las páginas, la compatibilidad con dispositivos móviles, si las páginas carecen de intersticiales intrusivos y si las páginas se publican de manera segura. Ojo Google confirma que no es factor de posicionamiento por sí solo PERO “en situaciones en las que hay muchas coincidencias posibles con una relevancia relativamente igual, el sistema ayuda a dar preferencia al contenido con una mejor experiencia de página”. Las optimizaciones de los Core Web Vitals y demás deben ser parte fundamental de nuestro trabajo SEO, si bien antes se deben haber atacado bien aspectos estratégicos, de contenido y técnicos.
La clasificación de pasajes es un sistema de inteligencia artificial (IA) que utilizan para identificar secciones individuales o "pasajes" de una página web. Eso quiere decir que a veces no nos van a posicionar por el tema principal de un contenido para una determinada búsqueda, sino que nos va a destacar y llevar a la parte donde se aborda una cuestión concreta, la que consulta el usuario. Para poder sacar partido es muy importante que estructuremos bien nuestros contenidos mediante encabezados que jerarquicen el contenido (h2, h3, h4…), y en el caso de contar con contenidos extensos como este, podemos usar sistemas de acceso a los apartados como las TOC (Table Of Contents), que encontraréis al inicio de nuestros posts con cierta extensión.
El sistema de reseñas de productos tiene como objetivo recompensar mejor las reseñas de productos de alta calidad. Google está intentando penalizar webs de afiliados con contenido refrito y sin valor original. Buscan que el “contenido que proporciona tenga un análisis perspicaz y una investigación original, y está escrito por expertos o entusiastas que conocen bien el tema”. De ahí vienen los recientes Product Review Update. Al buscador no le importan los afiliados mientras mostremos que hemos probado el producto, aportemos opinión y una guía de decisión a los usuarios, y ofrezcamos más de una opción de compra a nuestro lector, en una práctica antimonopolio que apunta claramente a Amazon.
RankBrain es un sistema de inteligencia artificial que ayuda a Google a comprender cómo se relacionan las palabras con los conceptos. Significa que intenta comprender el contexto, la intención de búsqueda, las inonímias o los conceptos relacionados. Es por eso que hemos insistido en algunos posts sobre contenidos para SEO en la importancia de usar un vocabulario rico y amplio sobre una temática, y no centrarse en una keywords e irla repitiendo constantemente.
Múltiples sistemas funcionan de varias maneras para mostrar en la búsqueda la información más confiable posible, como para ayudar a mostrar páginas más autorizadas y degradar el contenido de baja calidad y premiar lo que Google llama “periodismo de calidad”. Es un intento claro de Google para frenar el auge de los medios sensacionalistas y amantes del clickbait. Para lograr que nuestro sitio sea más confiable, especialmente si tocamos aspectos de dinero o salud, pero también para todo tipo de medios y blogs, es importante entender qué es el EAT y cómo trabajarlo.
Hace ya unos años que Google lanzó su sistema de diversidad de sitios funciona de modo que, por lo general, no se muestran más de dos listados de páginas web del mismo sitio en nuestros resultados principales, de modo que ningún sitio tiende a dominar todos los resultados principales. Esto ha frenado determinados monopolios, y dado más juego a diversidad de actores. Por lo general, veréis que funciona bien. Un aspecto importante es que desde Google confirman que los subdominios se consideran en principio parte del mismo sitio, por lo que atacar una misma búsqueda con dos subdominios de un mismo dominio sería una entretenida pérdida de tiempo.
Internet incluye enormes cantidades de spam y los resultados de búsqueda no se escapan de ello. Tienen a SpamBrain y otros sistemas para contenerlo, aunque eliminarlo es tarea imposible.
Google guarda un apartado especial a aquellos sistemas que ya no se usan pero, ojo, "se han incorporado a los sistemas sucesores o se han convertido en parte de nuestros sistemas de clasificación principales". Muchos de ellos los hemos analizado en su momento en este blog. Su filosofía sigue intacta así que parecería temerario hacer como si ya no existieran:
¿Tienes un proyecto en mente? Cuéntanoslo
Google está trabajando para ser más transparente con toda la documentación que afecta al SEO en su motor de búsqueda