El bot de indexación de Google es incansable, y su seguimiento y conocimiento nos será clave para nuestro
posicionamiento SEO. En prácticamente un solo día podemos incorporar un nuevo sitio web a su índice si hacemos las cosas correctamente. Pero
¿y si lo que queremos es eliminar una URL de dicho índice?En ocasiones, la fiabilidad de la araña de rastreo del buscador puede actuar en nuestra contra, añadiendo páginas al índice de Google que no queremos que aparezcan entre los resultados de búsqueda, como por ejemplo un artículo publicado con un enlace erróneo, un e-commerce que genera infinitas URLs debido a los filtros del catálogo, o un sitio web en desarrollo.
¿Qué podemos hacer ante estas situaciones? Vamos a ver las
diferentes opciones que tenemos para desindexar una URL de Google.
Herramienta Eliminar URLs de Search Console
Google ofrece en su
herramienta para webmasters Search Console una opción para
eliminar URLs del índice de su propio buscador. Encontraréis la opción bajo el menú Índice de Google. En ella, podréis introducir URLs de una en una y escoger si queréis eliminarlas de los resultados de búsqueda, de la caché o ambas cosas. Además, incluye la posibilidad de eliminar todas las páginas bajo un mismo directorio o un dominio completo.
Una vez enviéis una dirección, ésta pasará al estado Pendiente. En unas pocas horas, si todo va bien, su estado pasará a Eliminada. También cabe la posibilidad de que os denieguen este cambio, aunque no es habitual. Una vez eliminada, tendréis la opción de revertir los cambios por si hubieseis eliminado alguna página por error.
Etiqueta Meta Robots con valor noindex
La incorporación de la
etiqueta Meta Robots al código HTML de una página con el valor noindex nos permite indicar a los buscadores, entre ellos Google, que ésta no debe ser indexada. Al tratarse de una indicación de tipo directiva, Google debería eliminar dicha página de su índice (o no incorporarla si aún no la había detectado).
Dicha directiva también puede implementarse a través de la cabecera HTTP X-Robots-Tag.
Etiqueta Canonical
Si la página que queremos eliminar del índice corresponde a un duplicado o variación de una URL existente, podemos utilizar la
etiqueta Canonical para eliminar la versión que no nos interese indexar.
A diferencia del caso anterior, la etiqueta Canonical no es una directiva, por lo que Google puede optar por ignorarla. Además, su función original no está directamente vinculada a eliminar URLs del índice. También podemos implementarla a través de cabeceras HTTP.
Disallow en robots.txt
En este caso se trata de una
medida preventiva, que no nos servirá para eliminar páginas del índice, pero nos permitirá evitar que futuras URLs se indexen. En el
archivo robots.txt podemos especificar que el bot de Google no acceda a ciertas páginas, carpetas, rutas, tipos de archivo, etc., haciendo que sea incapaz de incorporarlas al índice.
Códigos de respuesta HTTP
Algunos
códigos de respuesta HTTP pueden, a la larga, provocando la desindexación de una URL concreta. Una página redirigida mediante un código 301 o que presente un código de error 410, indican a Google que ha habido un cambio permanente en la URL.
Existen otros mecanismos que pueden provocar la desindexación de una URL, pero estos son los más comunes y que pueden producir efectos más inmediatos, principalmente la herramienta de Eliminar URLs de Google y la etiqueta Meta Robots con el valor noindex. Si tenéis alguna duda en relación a la indexación de Google o cualquier otra cuestión relacionada con el posicionamiento SEO, no dudéis en contactar con nosotros.