¿Blog desindexado en Google? Los errores ocultos en robots.txt que nadie me contó
Hace unos meses, mi blog (www.angelnoes.es) desapareció por completo de los resultados de Google. No había penalizaciones manuales, ni errores técnicos evidentes, ni siquiera un mensaje claro en Google Search Console (GSC). Simplemente, todas mis páginas aparecían como "Rastreadas - No indexadas".
Después de semanas de investigación, pruebas y frustración, descubrí que el problema estaba en un detalle absurdamente pequeño en el archivo robots.txt que Google no me señaló claramente.
En este artículo, compartiré:
✅ Los errores más comunes que desindexan un blog (y cómo descartarlos).
✅ La poca transparencia de Google Search Console cuando algo falla.
✅ El error oculto en el robots.txt que me tuvo bloqueado meses.
✅ Cómo solucionarlo y recuperar la indexación.
(Si estás en la misma situación, esto te salvará horas de dolor de cabeza).

1. Síntomas: ¿Tu blog está desindexado?
Antes de entrar en soluciones, verifica si tienes estos síntomas:
- En GSC > Cobertura, todas (o casi todas) tus URLs aparecen como "Rastreadas - No indexadas".
- Al enviar una URL a Inspección de URLs, Google marca "Error" sin dar más detalles.
- Tu tráfico orgánico ha caído a cero de la noche a la mañana.
En mi caso, incluso el sitemap estaba bien configurado, las páginas no tenían noindex, y no había penalizaciones manuales. Pero nada funcionaba.
---
2. Posibles causas de desindexación (y cómo descartarlas)
A) Problemas técnicos comunes
1. Bloqueos en el robots.txt
Qué revisar:
Ve a tudominio.com/robots.txt y asegúrate de que no haya reglas como Disallow: /.
Mi error: Usaba una URL relativa (Sitemap: /sitemap.xml) en lugar de una absoluta (Sitemap: https://www.angelnoes.es/sitemap.xml).
2. Etiquetas "noindex" ocultas
Revisa el código fuente de tus páginas (Ctrl + U) y busca:
<meta name="robots" content="noindex" />
(En mi caso, no había ninguna, pero es un clásico).
3. Sitemap.xml corrupto o no válido
Verifica que tudominio.com/sitemap.xml se cargue correctamente.
Si usas Blogger, el sitemap dinámico puede dar problemas si no está referenciado con la URL absoluta en robots.txt.
4. Redirecciones o errores 4XX/5XX
Usa herramientas como Screaming Frog para escanear tu sitio en busca de:
- URLs con redirecciones rotas.
- Errores 404 (página no encontrada) o 500 (error del servidor).
B) Penalizaciones de Google
1. Acción manual
En GSC > Seguridad y acciones manuales, revisa si hay un mensaje de Google, tanto en acciones manuales como en seguridad.
Si no hay nada, es poco probable que sea una penalización manual.
2. Filtro algorítmico
Google puede desindexar sitios con:
- Contenido duplicado o "thin content" (usando herramientas como Copyscape).
- Spam o backlinks tóxicos (revisa en Google Search Console > Enlaces).
(En mi caso, no había ninguna de estas señales).
---
3. El error oculto: La URL relativa en el robots.txt
Después de descartar todo lo anterior, descubrí que el problema estaba en una línea del robots.txt:
Sitemap: /sitemap.xml # ¡Error! Google no lo interpretaba bien.
¿Por qué esto bloqueaba la indexación?
Google requiere que la URL del sitemap sea absoluta (con https:// incluido).
Aunque muchos sistemas aceptan rutas relativas (/sitemap.xml), GSC es estricto con este formato y puede ignorar el sitemap por completo.
No hubo ningún aviso claro en Search Console, solo un "Error" genérico al solicitar indexación.
Y el error lo detectas cuando vas a la opción Ajustes en el menú general, en el apartado de Rastreo.
Solución definitiva, vambié la línea a:
Sitemap: https://www.angelnoes.es/sitemap.xml
(También puedes desactivar el robots.txt personalizado y dejar que Blogger lo gestione automáticamente, si fuera el caso.)
---
4. Cómo recuperar la indexación
En mi caso, corregir el robots.txt (usa una URL absoluta para el sitemap).
Eliminar y reenvíar el sitemap en GSC.
En Índice > Sitemaps, eliminar el antiguo y añadir https://www.angelnoes.es/sitemap.xml (en tu caso, la URL de tu sitemap.xml, por supuesto).
Solicitar indexación manual de URLs clave. Usar Inspección de URLs para la home y 2-3 entradas importantes.
Esperar 24-72 horas y revisar GSC > Cobertura.
---
5. La poca transparencia de Google Search Console
Mi mayor frustración fue que Google no dio ninguna pista clara sobre el error real. Tuve que descubrirlo tras meses de pruebas.
Y cuando descubres que es algo tan simple es tremendamente frustrante. Porque además es posible que robots.txt no tuviera una URL correcta pero, joder, el sitemap.xml se lo enviaba a Search Console manualmente y lo reconocía. ¿Qué pasa? ¿Qué GoogleBot y Search Console no están conectadas realmente?
Lecciones aprendidas
🔹 Nunca uses URLs relativas en robots.txt para sitemaps.
🔹 Google Search Console no siempre explica los errores; hay que investigar por cuenta propia.
🔹 Blogger/Blogspot puede generar conflictos con dominios personalizados si no se configura bien.
Si estás en la misma situación, espero que este artículo te ahorre tiempo. ¡Comparte tu experiencia en los comentarios!
📢 ¿Tu blog también fue desindexado sin explicación? ¡Cuéntame tu caso y te ayudo a diagnosticarlo!
Bonus: Checklist para evitar la desindexación
✅ Usa URLs absolutas en robots.txt.
✅ Revisa el sitemap en GSC cada mes.
✅ Monitorea GSC > Cobertura semanalmente.
✅ Evita contenido duplicado o de baja calidad.
(¿Te ha sido útil este artículo? Compártelo en redes y ayuda a otros webmasters). 🚀
Comentarios
Publicar un comentario