Hay un gran debate entre los profesionales y las mejores agencias SEO sobre el futuro del SEO. ¿Cómo haremos SEO? y, sobre todo, ¿dónde se trabajará el SEO en el futuro?, incluso hay quien como Neil Pattel pasa a renombrar el acrónimo SEO -Search Engine Optimization- a Search Everywhere Optimization. Y dentro de este “everywhere” nos encontramos sobre todo con redes sociales, Amazon y la IA -Inteligencia Artificial- y, concretamente, los LLMs o Large Language Models. En este artículo te explicaré como conectar técnicamente tu página web con los LLMs o Modelos de Lenguaje de Gran Escala para que estos te tengan en consideración y aparezcas en sus resultados.
Antes de profundizar, es importante entender el contexto en el que nos encontramos. Los Modelos de Lenguaje de Gran Escala o Large Language Models (LLMs) son sistemas de inteligencia artificial diseñados para comprender, procesar y generar lenguaje natural de forma coherente y contextualizada. Su funcionamiento es simple: se entrenan con enormes volúmenes de datos para reconocer patrones en el lenguaje y así poder responder preguntas, redactar textos, programar, generar imágenes y videos y muchísimas cosas más. Los LLMs más conocidos son Google Gemini, ChatGPT, Claude, DeepSeek o Grok, es decir, sistemas de IA que las personas usamos asiduamente y, que sin duda, suponen ya una buena cuota de las búsquedas o consultas que se efectúan en Internet cada día. Y las empresas, obviamente, queremos estar presentes en estas búsquedas, pero para ello debemos estar presentes en sus fuentes de información.
La clave principal para hacer SEO en la IA es entender de donde extraen los LLMs la información y así saber cómo podemos incluirnos. Los LLMs consultan páginas web, blogs y redes sociales, enciclopedias como Wikipedia y bases de datos organizadas. Todo ello lo complementan analizando millones de textos y conversaciones e incluso las conversaciones de los usuarios con los LLMs. Así que nuestra herramienta principal para aparecer en ChatGPT, Gemini o Grok es nuestra página web.
El contenido es el rey (King is content) fue acuñada por primera vez por Bill Gates en un ensayo de 1996. Esta frase es, sin duda alguna, la frase más popular entre los SEO de todo el mundo y va a continuar siendo vigente por muchos años. Antes de trabajar técnicamente para que nuestro contenido sea accesible por los LLMs como ChatGPT o Google Gemini, hemos de plantearnos si el contenido que generamos es relevante y es de interés. Esto es condición sine qua non ya que si nuestro contenido no es de interés, original, fresco y relevante, por mucho que permitamos el acceso a los diferentes LLMs, estos no nos van a tener en consideración. Así que lo primero es crear contenido relevante, bien estructurado, redactado correctamente y de forma sencilla para facilitar su lectura. Además, ayuda mucho, que incluyamos referencias y enlaces a fuentes que gocen de reputación y el nombre del autor. En resumen, aplicar los criterios clásicos del E-E-A-T a nivel de SEO.
Una vez tenemos el contenido de interés en nuestra página web, el siguiente paso es permitir el acceso a la IA a nuestra página web. Si le preguntas a cualquier consultor SEO cual es el fichero .txt más importante para el SEO, te responderá que el robots.txt. Este es un fichero que indica a los buscadores como Google y otros rastreadores o crawlers a que secciones de tu página web pueden acceder y a cuáles no. Es un fichero de suma importancia y, el principal fichero, encargado de arruinar el SEO de muchas páginas en migraciones SEO. Lo primero que tenemos que hacer para permitir que los LLMs accedan a nuestra página web es no bloquearles el acceso mediante robots.txt.
Este bloqueo de los crawlers o rastreadores de IA puede ser consciente o inconsciente. Si accedemos por ejemplo al fichero robots.txt del New York Times, veremos que entre sus 268 líneas de código, hay un bloque creado expresamente para bloquear el acceso de crawlers o chatbots como ChatGPT o Claude; es decir New York Times impide conscientemente que ChatGPT o Claude pueden acceder a la página web de este diario digital y usarla como fuente de conocimiento.
Si queremos confirmar que este fichero funciona, podemos preguntarle explícitamente a ChatGPT si puede acceder a la página de The New York Times. Chat GPT nos confirma que no puede acceder y, además, explicita que no puede acceder debido al fichero robots.txt
Así que, una vez hayamos publicado contenido de interés en nuestra página web, debemos permitir que los LLMs puedan acceder al mismo a través de nuestra página web mediante la correcta configuración del fichero robots.txt. Ahora que tenemos el contenido y permitimos a ChatGPT o Gemini acceder a nuestra página web, el siguiente paso es como potenciar y facilitarles que accedan al contenido de nuestra página web que nos interesa, y aquí entra en juego el fichero llms.txt.
El llms.txt es un fichero cuya función es crear una especie de puente entre una página web y los diferentes sistemas de IA, para facilitarles entender el contexto y la relevancia del contenido de nuestra página web.
Cuando los sistemas de IA intentan leer nuestra página web, se encuentra con menús, JavaScript, CSS y otros elementos de código que les dificulta acceder al contenido que realmente nos interesa que accedan. El fichero llms.txt elimina estas barreras filtrando a la IA la información relevante en un formato que la IA puede entender fácilmente. Mediante este fichero ofrecemos una descripción estructurada y concisa del contenido del sitio que queremos que aparezca en la IA, orientada de forma específica a modelos de lenguaje de IA que facilita su comprensión y, por extensión, la precisión de sus respuestas y el posible engagement de nuestro futuros usuarios. Gracias a este fichero priorizamos que contenido queremos que las IA capten de nuestra página web, hablen de nuestra marca y nos incorporen como fuente de referencia.
El uso que le hemos de dar al archivo llms.txt dependerá de la tipología de nuestra página web. Si es una tienda online tenderemos a destacar categorías y descripciones de productos, en páginas corporativas destacaremos servicios y en blogs sobre todo categorías de noticias y autores.
El fichero llms.txt es un fichero ideado por Jeremy Howard, cofundador de Answer.AI. Es un fichero creado en markdown y que sigue una estructura concreta. Si no estás familiarizado con markdown, no te preocupes, el markdown es muy fácil de usar, es una forma sencilla de escribir texto y darle formato sin usar código complejo. Por ejemplo, utiliza # para el H1, ## para H2 y **texto en negrita**. Aquí tienes una guía de markdown.
El fichero llms.txt se estructura en cuatro elementos principales:
Un ejemplo sería:
Mientras el fichero llms.txt facilita la navegación y estructura, puedes complementarlo con el fichero llms-full.txt, que actúa como un documento mucho más detallado de soporte y directrices específicas para los LLMs. Para páginas web medianas o corporativas, podemos prescindir directamente del llms-full.txt
De forma similar a como creamos un fichero robots.txt, podemos crear el archivo llms.txt usando un bloc de notas, lo guardamos con el nombre exacto de llms.txt y lo subimos a la raíz del dominio vía ftp para que los sistemas de IA lo encuentren sin dificultad.
Si prefieres generar el archivo llms.txt de forma automática puedes recurrir a herramientas online como Wordlift o Firecrawl, hay incluso plugins de WordPress para generar archivos llms.txt
Para evitar los errores más habituales, es recomendable que una vez tengamos el fichero correctamente creado y subido a nuestro servidor comprobemos que:
La implementación del archivo llms.txt nos ayudará a que los diferentes LLMs como ChatGPT o Gemini, entre otros, accedan a nuestra página web y la utilicen como fuente de conocimiento y muestren nuestra marca o empresa en sus resultados. La presencia de nuestra marca en las respuestas de LLMs nos ayudará a que nuestra marca sea reconocida por nuestros potenciales clientes y nos generará negocio y reputación. Como SEOs nuestro ámbito de acción se va a ampliar y vamos a trabajar para conseguir que nuestra marca esté presente en cualquier plataforma, sea una IA o un buscador como Google, donde se realice una consulta.
El SEO está evolucionando hacia lo que se denomina "Search Everywhere Optimization", ya no debemos trabajar la presencia de nuestras marca únicamente en buscadores como Google sino que debemos estar presentes en los sistemas de IA cuando alguien efectúe una consulta. Para ello debemos generar contenido relevante, bien estructurado y accesible por los sistemas de IA. La configuración adecuada de archivos como robots.txt y llms.txt es esencial para que los LLMs puedan rastrear y comprender correctamente el contenido de nuestra página web y aumentar la visibilidad de nuestra marca en el contexto de la inteligencia artificial.
¿Tienes un proyecto en mente? Cuéntanoslo
El fichero llms.txt es el puente entre la IA y tu página web