+34 640 344 378 hola@luisgarcia.es

Usos de Screaming Frog para SEO

22 febrero, 2025

1 – Formas de analizar en Screaming Frog

Screaming Frog permite diferentes maneras de abordar un análisis SEO, en función del objetivo que tengamos. Por un lado, podemos hacer un rastreo “en bruto”, sin aplicar filtros ni configuraciones previas, lo que nos da una visión completa de la web tal como es. Pero también podemos configurar previamente el rastreo para centrarnos en aspectos concretos, como seguir enlaces nofollow, analizar sólo ciertas secciones del sitio o respetar el robots.txt. Esta personalización es clave para adaptar el análisis a cada necesidad específica.

2 – El Sitemap en Screaming Frog

Screaming Frog puede usar el sitemap XML como base para el rastreo. Esto es muy útil para comprobar qué URLs están indexadas y cómo están configuradas, comparándolas con lo que realmente está enlazado internamente.

Para ello, basta con ir a:

Configuración -> Spider -> Rastreo -> Rastrear sitemaps XML enlazados

Desde ahí, tenemos dos opciones:

  • Dejar que Screaming Frog detecte el sitemap automáticamente desde el robots.txt.

  • O introducir manualmente la URL del sitemap.

Además, si queremos auditar exclusivamente las URLs del sitemap, podemos usar el modo Lista. Simplemente descargamos el sitemap, lo cargamos en SF, y obtenemos toda la información sobre esas URLs en concreto.

3 – Configuraciones Típicas antes de Analizar

Antes de empezar un rastreo serio, conviene revisar algunas configuraciones clave:

  • Seguir enlaces nofollow internos: en ocasiones, es útil activar esta opción para tener una imagen completa del enlazado.

  • Incluir los sitemaps en el rastreo.

  • Si el sitio utiliza un CDN, conviene indicar la IP o hostname correspondiente.

  • Excluir parámetros en la URL que no aportan contenido relevante, especialmente si hay muchos. Esto se hace desde:

    Configuración -> Reescritura de URL -> Eliminar Todos

  • Velocidad de rastreo: importante ajustar este valor para no sobrecargar el servidor. Un rastreo demasiado rápido puede provocar bloqueos o errores.

  • Elegir un User-Agent adecuado: si detectamos bloqueos, podemos cambiar el agente a uno más “amigable”, como Googlebot.

4 – Robots.txt en Screaming Frog

Screaming Frog permite gestionar cómo trata el archivo robots.txt:

Configuración -> Robots.txt

Ahí podemos decidir si queremos:

  • Respetar las reglas del archivo.

  • Ignorarlas completamente.

Esto afectará directamente a qué URLs se rastrean. Las bloqueadas aparecerán en el panel lateral como tales. Si se mezclan URLs externas, podemos usar filtros por dominio para centrarnos sólo en las nuestras. Este paso es muy útil para detectar si hay URLs importantes (como fichas de producto o categorías) bloqueadas por error.

5 – Probador de Robots.txt

Dentro del propio panel de configuración de robots, Screaming Frog incluye un probador de reglas.

Funciona de forma similar al tester de robots de Google y nos permite simular el comportamiento del crawler sobre una URL concreta. Es perfecto para validar si el robots.txt está bloqueando contenidos sin que lo sepamos.

6 – Datos Estructurados

Screaming Frog puede detectar y extraer datos estructurados como Schema.org o JSON-LD, siempre que activemos esta opción en:

Configuración -> Extracción -> Datos Estructurados

Una vez habilitado, los resultados se mostrarán en el panel inferior y podremos revisar si están bien implementados o si hay errores.

7 – Análisis del Anchoring Interno

El análisis de los textos ancla (anchor text) permite ver cómo se está distribuyendo el enlazado interno. Podemos exportarlos desde:

Exportación en Bloque -> Enlaces -> Todos los textos ancla

Esto es clave para comprobar si estamos usando una buena variedad de anclas o si estamos sobreoptimizando.

8 – Posición de los Enlaces Internos

Además del texto, Screaming Frog nos permite ver dónde están ubicados los enlaces. Esto es relevante porque no es lo mismo un enlace en el menú que uno en el contenido principal.

Para configurarlo:

Configuración -> Personalizada -> Posición de los Enlaces

Ahí introducimos las clases o IDs HTML que queremos identificar. Luego, al seleccionar una URL en el panel, en la pestaña Enlaces Internos, podemos ver la columna “Posición del Enlace” con esta información.

10 – Xpath

Screaming Frog permite usar expresiones XPath para extraer información concreta de la web de forma automatizada. XPath es un lenguaje que sirve para navegar estructuras XML y HTML, ideal para localizar elementos específicos dentro del código.

Por ejemplo, si queremos extraer precios, descripciones o títulos personalizados, configuramos la extracción en:

Configuración -> Extracción personalizada -> XPath

Es fundamental saber con precisión qué parte del HTML queremos analizar. Para ello, conviene inspeccionar el código de la página primero.

11 – Contenido Duplicado

Para detectar contenido duplicado, Screaming Frog compara la similitud entre páginas usando un porcentaje que podemos definir. Normalmente, se considera “semiduplicado” a partir del 20% de coincidencia.

Pero hay un paso importante: indicar qué parte del contenido debe analizarse, excluyendo elementos repetitivos como el header, footer o sidebar. Esto se configura en:

Configuración -> Contenido -> Área de Contenido

Ahí podemos incluir o excluir por etiquetas, clases o ID. De esta forma nos centramos sólo en el contenido relevante.

12 – Redirecciones Internas

Podemos exportar un listado de todas las redirecciones internas para detectar posibles errores. Esto es muy útil para:

  • Corregir enlaces que apuntan a URLs con código 301 (innecesarios si podemos enlazar directamente a la versión final).

  • Localizar enlaces a páginas 404, que generan errores y afectan al SEO.

Para ello, usamos la exportación en bloque en el informe de redirecciones.

13 – Enlazado Interno

El enlazado interno es uno de los pilares del SEO técnico. Con Screaming Frog podemos:

  • Ver cuántos enlaces recibe cada URL.

  • Identificar páginas huérfanas o poco enlazadas.

  • Analizar la distribución del link juice.

Esto se hace desde el panel principal, en la pestaña “Internos”, o a través de exportaciones.

14 – Almacenamiento en Base de Datos

Por defecto, Screaming Frog almacena los rastreos en memoria, lo que puede limitar el análisis si el sitio es muy grande. Una alternativa es activar el almacenamiento en Base de Datos:

Archivo -> Configuración del Almacenamiento -> Base de Datos

Esto nos permite guardar crawls completos y compararlos posteriormente. Muy útil para auditorías recurrentes o comparaciones tras una migración.

15 – Detectar Páginas Huérfanas

Una página huérfana es aquella que no recibe ningún enlace interno, pero puede estar indexada o recibir tráfico.

Para detectarlas:

  • Cargamos manualmente los sitemaps.

  • Conectamos las APIs de Google Analytics y Search Console.

  • Activamos la opción:

    Configuración -> API de GA/GSC -> Rastrear nuevas URL descubiertas

Después del rastreo, vamos a:

Informes -> URL’s Huérfanas

Ahí veremos qué páginas reciben tráfico pero no están enlazadas internamente.

16 – Rastrear Sitios Grandes

Cuando analizamos webs con miles o millones de URLs, conviene:

  • Usar el modo de almacenamiento en base de datos.

  • Limitar la profundidad del rastreo.

  • Ajustar la velocidad de escaneo.

  • Usar filtros por carpetas o URL.

Esto mejora el rendimiento y evita que Screaming Frog colapse o que el servidor del sitio se sature.

17 – Rastrear Sitios con JavaScript

Muchas webs modernas cargan contenido dinámico con JS. Para detectar si una web usa JavaScript:

  1. Usamos la extensión Web Developer y desactivamos el JS.

  2. Si al recargar la web no se ve nada, significa que depende de JS.

Para rastrear ese contenido, activamos:

Configuración -> Renderizado -> JavaScript

Y podremos ver qué contenido ha sido renderizado correctamente en la pestaña Rendered Page.

18 – Migraciones con Screaming Frog

Caso 1: Comprobar redirecciones

  • Activamos Always Follow Redirects.

  • Subimos las URLs antiguas en modo lista.

  • Vamos a Informes -> Redirecciones -> Todas las redirecciones.

Así vemos si:

  • Las redirecciones llevan a páginas correctas.

  • Se están generando bucles o cadenas de redirección.

Caso 2: Comparación avanzada de rastreos

  • Rastrear el sitio en el entorno previo a la migración.

  • Rastrear la versión en producción.

  • Seleccionar el modo Compare, siempre que el almacenamiento esté en Base de Datos.

Si los dominios son distintos (por ejemplo, un entorno staging), podemos usar:

Configuración de Comparación -> Sustitución por Expresión Regular

Esto permite igualar URLs distintas y comparar correctamente los dos entornos.

19 – Incluir y Excluir Carpetas en Rastreo

Podemos limitar el rastreo a ciertas secciones de la web desde:

Configuración -> Incluir / Excluir

Esto es útil cuando solo queremos analizar un subdirectorio (como /blog o /productos), o si queremos evitar zonas como /admin o /privado.

20 – Parámetros en URLs

Los parámetros pueden distorsionar el rastreo si no se controlan. En Screaming Frog podemos:

  • Omitir todos los parámetros.

  • O excluirlos individualmente desde:

Configuración -> Reescritura de URL

Además, podemos limitar el número de cadenas de consulta desde:

Configuración de Rastreo -> Límites -> Número de parámetros

Diferencia entre:

  • Parámetros activos: modifican el contenido.

  • Parámetros pasivos: como los UTM, que no lo modifican.

21 – Tiempo de Respuesta y WPO

Para medir el rendimiento de carga de la web, tenemos dos opciones:

  • Ver el tiempo de respuesta en un rastreo normal.

  • Conectar la API de PageSpeed Insights y seleccionar las métricas que nos interesan.

Los resultados se muestran en el panel habitual y permiten detectar páginas lentas.

22 – Niveles de Profundidad

Screaming Frog muestra automáticamente el nivel de profundidad (número de clics desde la home) en la columna “Depth” dentro de la pestaña Internos.

Se recomienda que el contenido importante esté a menos de 3 clics de la página principal.

23 – SEO Internacional

Para analizar la etiqueta hreflang, debemos habilitar esta función:

Configuración -> Spider -> SEO Internacional

Una vez activado, veremos la información en el panel lateral. Esto nos permite detectar errores en la implementación del SEO multidioma.

24 – Rastrear Sitios con Login

Algunas webs muestran contenido diferente a los usuarios registrados. Para rastrearlo:

Configuración -> Autenticación -> Basada en Formularios

Introducimos la URL del login, accedemos con nuestras credenciales, y a partir de ahí Screaming Frog rastreará como si estuviéramos logueados.

25 – Paginaciones

Para rastrear correctamente la relación entre páginas paginadas:

Configuración -> Paginación rel=»next/prev» -> Habilitar

Esto nos permite auditar el marcado correcto de la paginación y detectar errores en el enlazado entre páginas.

26 – Enlaces a Recursos Inseguros

Después del rastreo, podemos comprobar si alguna URL está cargando contenido desde fuentes no seguras (HTTP):

Ir a la pestaña Seguridad
Seleccionar el filtro URL HTTP

Ahí veremos todos los recursos inseguros, que pueden generar advertencias en navegadores o afectar al SEO.

Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Cómo Hacer un Plan de Contenidos para un Blog

Cómo Hacer un Plan de Contenidos para un Blog

Manual SEO: Definición de Plan de Contenidos con SE Ranking Este manual se centra en dos pilares críticos: qué escribir (Gap de contenido) y cada cuánto escribir (Ritmo de publicación). Función 1: Descubrir el "Gap de Contenido" (Brecha de Palabras Clave) El objetivo...

Evitar el Indexado de Parámetros en un Ecommerce

Evitar el Indexado de Parámetros en un Ecommerce

Introducción En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...