Ayuda con robots.txt

Iniciado por deth, Enero 03, 2016, 02:46:09 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

Enero 03, 2016, 02:46:09 PM Ultima modificación: Enero 03, 2016, 03:59:14 PM por Expermicid
hola amigos mi web aparece en google con links que no deben ejemplo: No tienes permitido ver los links. Registrarse o Entrar a mi cuenta etc, entonces me he creado un robots.txt que contiene esto:
----------------
User-Agent: *
Disallow: /
----------------

mi duda es ya han pasado como 4 dias y google todavia no saca esos links, cuanto tarda google en quitar esos links?, existe algun metodo para acelerar que google quite los links?

gracias de antemano.

Enero 03, 2016, 02:58:27 PM #1 Ultima modificación: Enero 03, 2016, 03:59:27 PM por Expermicid
Para borrar estas URL debemos de ir a nuestra cuenta de Herramientas para webmasters en Google, desde donde nos pone el siguiente enlace "Eliminaciones de URL", pinchando en este enlace nos ofrecen varias soluciones:

- Asegúrese de que las solicitudes de acceso a la página devuelvan un código de estado HTTP 404 o 410.
- Bloquear la página utilizando un archivo robots.txt
- Bloquear la página utilizando una metaetiqueta noindex

Tomando una de estas opciones, desde Google nos dicen que las URLs serán borradas la proxima vez que el spider de Google rastree nuestra web. Para ello pinchamos en el botón de Nueva solicitud de eliminación y nos ofrecen varias opciones de nuevo:

Las eliminaciones tienen efecto durante 6 meses. Puede revocar una eliminación en cualquier momento que lo desee. En el caso de que, transcurridos 6 meses, la página esté bloqueada o no exista, ésta no se mostrará en los resultados de búsqueda de Google.

Fuente: seoprofesional