14 Feb 2018

¿Cómo desindexar una URL de Google?

¿Cómo desindexar una URL de Google?

El bot de indexación de Google es incansable. En prácticamente un solo día podemos incorporar un nuevo sitio web a su índice si hacemos las cosas correctamente. Pero ¿y si lo que queremos es eliminar una URL de dicho índice?

En ocasiones, la fiabilidad de la araña de rastreo del buscador puede actuar en nuestra contra, añadiendo páginas al índice de Google que no queremos que aparezcan entre los resultados de búsqueda, como por ejemplo un artículo publicado con un enlace erróneo, un e-commerce que genera infinitas URLs debido a los filtros del catálogo, o un sitio web en desarrollo.

¿Qué podemos hacer ante estas situaciones? Vamos a ver las diferentes opciones que tenemos para desindexar una URL de Google.

Herramienta Eliminar URLs de Search Console

Google ofrece en su herramienta para webmasters Search Console una opción para eliminar URLs del índice de su propio buscador. Encontraréis la opción bajo el menú Índice de Google. En ella, podréis introducir URLs de una en una y escoger si queréis eliminarlas de los resultados de búsqueda, de la caché o ambas cosas. Además, incluye la posibilidad de eliminar todas las páginas bajo un mismo directorio o un dominio completo.

Una vez enviéis una dirección, ésta pasará al estado Pendiente. En unas pocas horas, si todo va bien, su estado pasará a Eliminada. También cabe la posibilidad de que os denieguen este cambio, aunque no es habitual. Una vez eliminada, tendréis la opción de revertir los cambios por si hubieseis eliminado alguna página por error.

Etiqueta Meta Robots con valor noindex

La incorporación de la etiqueta Meta Robots al código HTML de una página con el valor noindex nos permite indicar a los buscadores, entre ellos Google, que ésta no debe ser indexada. Al tratarse de una indicación de tipo directiva, Google debería eliminar dicha página de su índice (o no incorporarla si aún no la había detectado).

Dicha directiva también puede implementarse a través de la cabecera HTTP X-Robots-Tag.

Etiqueta Canonical

Si la página que queremos eliminar del índice corresponde a un duplicado o variación de una URL existente, podemos utilizar la etiqueta Canonical para eliminar la versión que no nos interese indexar.

A diferencia del caso anterior, la etiqueta Canonical no es una directiva, por lo que Google puede optar por ignorarla. Además, su función original no está directamente vinculada a eliminar URLs del índice. También podemos implementarla a través de cabeceras HTTP.

Disallow en robots.txt

En este caso se trata de una medida preventiva, que no nos servirá para eliminar páginas del índice, pero nos permitirá evitar que futuras URLs se indexen. En el archivo robots.txt podemos especificar que el bot de Google no acceda a ciertas páginas, carpetas, rutas, tipos de archivo, etc., haciendo que sea incapaz de incorporarlas al índice.

Códigos de respuesta HTTP

Algunos códigos de respuesta HTTP pueden, a la larga, provocando la desindexación de una URL concreta. Una página redirigida mediante un código 301 o que presente un código de error 410, indican a Google que ha habido un cambio permanente en la URL.

Existen otros mecanismos que pueden provocar la desindexación de una URL, pero estos son los más comunes y que pueden producir efectos más inmediatos, principalmente la herramienta de Eliminar URLs de Google y la etiqueta Meta Robots con el valor noindex. Si tenéis alguna duda en relación a la indexación de Google o cualquier otra cuestión relacionada con el posicionamiento SEO, no dudéis en contactar con nosotros.
Compartir  
Utilizamos cookies propias y de terceros para ofrecerte un mejor servicio Más información Aceptar