El objetivo de Google siempre ha sido devolver los mejores resultados posibles ante la búsqueda de un usuario. Con el tiempo ha ido mejorando aspectos de semántica, que le permiten entender mejor tanto el sentido de la búsqueda del usuario, como el contenido de los sitios web. Mediante las mejoras que ha ido aplicando Google con sus algoritmos, las prácticas SEO también han ido cambiando. Antiguamente para posicionar una keyword de dificultad media bastaba con algo de SEO on page, mucho keyword stuffing, algún enlace (o ni eso) y ya lo teníamos. Ahora eso no sólo es insuficiente, sino que es manifiestamente contrario a varias directrices para posicionar en su buscador.
Hoy en día cuando realizamos una búsqueda, Google tiene en cuenta cientos de aspectos: mi posible intención de búsqueda, mi historial de navegación, mi geolocalización, el idioma en el que lo he buscado, las entidades relacionadas, aspectos de actualidad y muchos más parámetros, y me devuelve una hoja de resultados que puede incluir links azules pero también múltiples formatos de contenido.
El NLP son las siglas en inglés de Procesamiento de Lenguaje Natural. Aplicado al SEO, debes entender que Google lo usa para entender mejor la búsqueda del usuario, y el contenido de los sitios, para hacer el match deseado. Cuando ponemos una query en el buscador que contiene un conjunto de palabras, Google realiza un análisis semántico, detecta relaciones entre las palabras, y obtiene un significado conjunto de la búsqueda, así como las entidades relacionadas. Google también lo usa para comprender y relacionar datos sobre la actualidad, eventos, noticias, o incluso conversaciones en foros o redes sociales sobre el asunto.
La tokenización es un proceso clave para entender cómo funciona el NLP en Google: este concepto, aplicado normalmente en le jerga blockchain, en este caso hace referencia a cómo separa las palabras en un texto, las analiza por separado y en su conjunto, y a su vez con los posibles signos de puntuación aplicados.
Otra clave del proceso es la categorización gramatical. ¿recordáis cuándo analizábamos oraciones en el colegio, separando sintagmas y objetos directos, indirectos y demás? Pues es un proceso muy similar. Ahí etiqueta sustantivos, adverbios, verbos, preposiciones, y entiende qué matiz o cambios implica cada parte de la oración en el significado del conjunto.
Otra dimensión a tener en cuenta son las lematizaciones. Mediante este proceso transformamos una palabra en el concepto que hallaríamos en el diccionario. Si en una frase encuentra el concepto finalizado, por ejemplo, lo lematiza con la entrada del diccionario del verbo finalizar. Veamos un ejemplo clarísimo: buscamos “posicionamiento SEO”, y mediante la lematización, nos devuelve un resultado de wikipedia referente a “posicionamiento en buscadores”, que sería en concepto más técnico:
El siguiente concepto con el que te deberías familiarizar son las dependencias. Qué duda cabe que unos términos dependen de otros según las reglas gramaticales. Si yo digo que “este post está muy bien”, Google debe entender que bien pertenece a post, no a la palabra inmediatamente anterior, como procesaba anteriormente.
Todo esto está bien fijarlo, pues guarda relación con un fenómeno que ya conocemos: el Knowledge Graph. Estos resultados especiales que vemos en las SERPs en realidad beben de un concepto hoy clave en SEO: las entidades. Estas son objetos o conceptos que no dan lugar a error, y que establecen relaciones con las palabras clave. En las búsquedas relacionadas con “Barcelona”,nuestra ciudad, una entidad clara sería la ciudad como elemento geográfico, pero que Google (y los usuarios) necesitarán diferenciar de otra entidad tan o más conocida, el club de fútbol. Incluso el mitiquísimo presidente del Barça Josep Lluís Núñez se refirió a la ciudad condal como “la ciudad que lleva el nombre de nuestro club”. Veamos qué sucede si buscamos “barcelona”:
Pero en cambio si le añadimos un matiz, ya identifica que se trata de otra entidad, y por su naturaleza el tipo de resultados e información serán distintos:
Si quieres saber con qué entidades se relaciona un contenido, para un posible análisis o posteriores mejoras, puedes usar el entity indexing checker de Inlinks. Es un simulador de lo que conocemos como salience, un baremos que indica la importancia (de 0 a 1) de una entidad en el documento analizado. Le hemos facilitado a la herramienta nuestro diccionario SEO, y el resultado es el siguiente:
Veréis que nos indica que Google probablemente detecte dos entidades, en este caso SEO y diccionario, y es correcto. Además nos da guías para poder identificar mejor otras entidades relacionadas.
Te presentamos a una herramienta potentísima, y que además hasta un cierto uso es gratuita: el Cloud Natural Language. Le puedes pasar textos, y ella misma te indica cómo analiza Google ese contenido, y qué entidades extrae. Para ofreceros un ejemplo un poco distinto, le he pasado mi post sobre Open Graph y el resultado es el siguiente:
Me ha detectado muy bien entidades claramente buscadas en el post: Facebook, Instagram, Meta y Google. Pero es probable que no haya entendido lo suficientemente otras entidades relevantes aquí como SEO o redes sociales, por poner un ejemplo. La herramienta es potentísima y no sólo nos indica las entidades detectadas, también te da información relevante sobre el sentimiento que detecta en el texto, en qué categoría lo guardaría, y si necesitaría algún tipo de moderación (contenido para adultos, por ejemplo).
Ya hemos visto cómo analiza Google las queries que le metemos en una búsqueda para hacerse idea de qué queremos. Una vez claro, ¿qué resultados mostrar? Para ello debemos comprender bien cómo Google identifica una URL como un buen resultado ante una busca X: en esencia, analiza su contenido al detalle y las señales de enlazado que recibe, tanto externo como interno.
En el primer proceso de rastreo, tenemos un Googlebot que pasa por nuestra web y analiza el contenido de nuestro html. Si usas webs de tecnología Javascript vete con cuidado, porque lo que ve el usuario no es lo mismo que tenemos en el HTML, y te puede resultar problemático por motivos evidentes. Y si todavía usas webs cuyo contenido se oculta total o parcialmente en móviles, pues ese contenido no será tenido en cuenta a efectos de posicionamiento. Más adelante Google realiza un segundo proceso, en el que esta vez ejecuta los CSS y JS en la URL, y con ello obtiene el documento final (DOM) sobre nuestro contenido. Es lo que se conoce como proceso de renderizado. Para diferenciar claramente el html del DOM, en el primer caso simplemente debemos hacer ctr+U en nuestro teclado, mientras que el DOM lo vemos cuando inspeccionamos una página (en chrome botón derecho, inspeccionar). Y ambos tienen peso semántico, pero mejor asegurarnos que todo lo relevante a nivel de contenido ya aparezca en el html. Para ahorrarle tiempo a Google para entender el contenido, es muy recomendable usar HTML5, y separando bien el contenido principal del resto: usa los parámetros header, section, article, nav, aside, main, footer…
Después del contenido, Google utiliza los enlaces para etiquetar las URLs semánticamente. Mediante los anchor texts y titlesde los enlaces que apuntan a una URL, mandamos señales claras a Google sobre nuestras intenciones de posicionamiento. Es importante que los anchor tengan relación semántica, e intentar no confundir a la criatura enviando con el mismo anchor a varias URLs. Complementariamente, está demostrado que el enlace debería estar contextualizado dentro de un párrafo que tenga relación semántica. En cualquier caso lo más relevante que te puedes llevar aquí es que enlaces con el anchor aquí, ver más y similares, deberíamos intentar minimizarlos.
Cuando hablamos de relación semántica, nos referimos a la URL de destino, pero Google también tiene en cuenta la web de emisión. ¿Si yo desde una web de zapatos le meto un enlace hacia una web de biología, va a resultar relevante para el destinatario? Por ello es muy importante trabajar la relación temática en nuestra estrategia de linkbuilding.
A continuación os ofrecemos algunas pistas de factores que tiene en cuenta Google también, y que ayuda al etiquetado semántico:
Generalmente no tenemos de posicionar por posicionar, sino que tendremos objetivos respecto a qué tipo de URLs aspiramos a conseguir.
En este punto, lo que debes entender es que en el SEO moderno lo más recomendable es asociar cada URL a una sola keyword. Obviamente incluyendo sus matices, sinonimia y demás, pero no pretendas posicionar por más de una cosa con una sola URL, es una pérdida de tiempo a menos que las cosas cambien bastante. ¿Se pueden continuar haciendo macrocontenidos como antiguamente? Sí y no. Si haces un contenido informativo con miles de keywords, este probablemente posicionará sólo por la temática principal. En el caso que optes por hacer un macrocontenido, hazlo sólo si lo vas a usar como distribuidor para enlazar contenidos que tengan relación temática y un objetivo SEO individual. Por ejemplo nosotros tenemos una guía SEO muy larga y completa, pero que sólo va a posicionar por guía SEO, sin embargo distribuye enlazado a muchos posts relacionados, acortando la distancia de acceso para Google a determinados contenidos. Por eso una web en single page es una excelente herramienta para campañas SEM, pero muy mala si quieres hacer SEO, pues sólo podrás ir a por un tipo de búsquedas.
Una vez fijado el contenido y los objetivos SEO, debemos enviarle señales a Google para que haga una interpretación semántica correcta, con acciones como:
Un error bastante común en proyectos SEO B2B en el que tenemos un portfolio de clientes o proyectos en los que hemos trabajado, es que un mal marcado semántico puede llevar a Google a posicionarnos por las keywords de la marca de nuestro cliente, en vez de hacerlo por las de nuestros servicios.
Existen diferentes metodologías disponibles y métricas para intentar evaluar la semántica de un contenido. Vamos a verlas, aunque quiero advertir que no pretendo que se interprete mal, en el sentido que hoy día no debes obsesionarte con métricas como la densidad de keywords. Sí quiero que te quedes con la idea de que Google debe tener claro de qué va nuestro contenido, sin necesidad de forzarlo en exceso.
Algunos aspecto a tener en cuenta:
Todo esto lo puedes evaluar interiorizando estos conceptos, con metodologías de control propias, o bien con herramientas externas. A mí particularmente para este tipo de procesos me gusta bastante la SEO on Page Checker de Seranking, pero hay más opciones en el mercado.
Sui buscas una opción que analice específicamente la TF-IDF, en ese caso te recomendamos la de Seobility. Hemos cogido el mismo ejemplo de antes, entregándole nuestro diccionario SEO, y los conceptos con mayor TF IDF parecen ser los correctos: Web, Google y SEO. Seobiliity en este caso coge como corpus los primeros resultados para determinada búsqueda, así que nuestros baremo será en relación a la competencia.
¿Tienes un proyecto en mente? Cuéntanoslo
Comprende cómo Google descifra y comprende el contenido de nuestros sitios para dar un impulso a tu SEO