+34 640 344 378 hola@luisgarcia.es

Usos de Screaming Frog para SEO

Tiempo de lectura: 8 minutos
22 febrero, 2025
Valorar post

1 – Formas de analizar en Screaming Frog

Screaming Frog permite diferentes maneras de abordar un análisis SEO, en función del objetivo que tengamos. Por un lado, podemos hacer un rastreo “en bruto”, sin aplicar filtros ni configuraciones previas, lo que nos da una visión completa de la web tal como es. Pero también podemos configurar previamente el rastreo para centrarnos en aspectos concretos, como seguir enlaces nofollow, analizar sólo ciertas secciones del sitio o respetar el robots.txt. Esta personalización es clave para adaptar el análisis a cada necesidad específica.

2 – El Sitemap en Screaming Frog

Screaming Frog puede usar el sitemap XML como base para el rastreo. Esto es muy útil para comprobar qué URLs están indexadas y cómo están configuradas, comparándolas con lo que realmente está enlazado internamente.

SF

Para ello, basta con ir a:

Configuración -> Spider -> Rastreo -> Rastrear sitemaps XML enlazados

Desde ahí, tenemos dos opciones:

  • Dejar que Screaming Frog detecte el sitemap automáticamente desde el robots.txt.

  • O introducir manualmente la URL del sitemap.

Además, si queremos auditar exclusivamente las URLs del sitemap, podemos usar el modo Lista. Simplemente descargamos el sitemap, lo cargamos en SF, y obtenemos toda la información sobre esas URLs en concreto.

3 – Configuraciones Típicas antes de Analizar

Antes de empezar un rastreo serio, conviene revisar algunas configuraciones clave:

  • Seguir enlaces nofollow internos: en ocasiones, es útil activar esta opción para tener una imagen completa del enlazado.

  • Incluir los sitemaps en el rastreo.

  • Si el sitio utiliza un CDN, conviene indicar la IP o hostname correspondiente.

  • Excluir parámetros en la URL que no aportan contenido relevante, especialmente si hay muchos. Esto se hace desde:

    Configuración -> Reescritura de URL -> Eliminar Todos

  • Velocidad de rastreo: importante ajustar este valor para no sobrecargar el servidor. Un rastreo demasiado rápido puede provocar bloqueos o errores.

  • Elegir un User-Agent adecuado: si detectamos bloqueos, podemos cambiar el agente a uno más “amigable”, como Googlebot.

4 – Robots.txt en Screaming Frog

Screaming Frog permite gestionar cómo trata el archivo robots.txt:

Configuración -> Robots.txt

Ahí podemos decidir si queremos:

  • Respetar las reglas del archivo.

  • Ignorarlas completamente.

Esto afectará directamente a qué URLs se rastrean. Las bloqueadas aparecerán en el panel lateral como tales. Si se mezclan URLs externas, podemos usar filtros por dominio para centrarnos sólo en las nuestras. Este paso es muy útil para detectar si hay URLs importantes (como fichas de producto o categorías) bloqueadas por error.

5 – Probador de Robots.txt

Dentro del propio panel de configuración de robots, Screaming Frog incluye un probador de reglas.

SF2

Funciona de forma similar al tester de robots de Google y nos permite simular el comportamiento del crawler sobre una URL concreta. Es perfecto para validar si el robots.txt está bloqueando contenidos sin que lo sepamos.

6 – Datos Estructurados

Screaming Frog puede detectar y extraer datos estructurados como Schema.org o JSON-LD, siempre que activemos esta opción en:

Configuración -> Extracción -> Datos Estructurados

Una vez habilitado, los resultados se mostrarán en el panel inferior y podremos revisar si están bien implementados o si hay errores.

7 – Análisis del Anchoring Interno

El análisis de los textos ancla (anchor text) permite ver cómo se está distribuyendo el enlazado interno. Podemos exportarlos desde:

Exportación en Bloque -> Enlaces -> Todos los textos ancla

Esto es clave para comprobar si estamos usando una buena variedad de anclas o si estamos sobreoptimizando.

8 – Posición de los Enlaces Internos

Además del texto, Screaming Frog nos permite ver dónde están ubicados los enlaces. Esto es relevante porque no es lo mismo un enlace en el menú que uno en el contenido principal.

SF3

Para configurarlo:

Configuración -> Personalizada -> Posición de los Enlaces

Ahí introducimos las clases o IDs HTML que queremos identificar. Luego, al seleccionar una URL en el panel, en la pestaña Enlaces Internos, podemos ver la columna “Posición del Enlace” con esta información.

10 – Xpath

Screaming Frog permite usar expresiones XPath para extraer información concreta de la web de forma automatizada. XPath es un lenguaje que sirve para navegar estructuras XML y HTML, ideal para localizar elementos específicos dentro del código.

SF4

Por ejemplo, si queremos extraer precios, descripciones o títulos personalizados, configuramos la extracción en:

Configuración -> Extracción personalizada -> XPath

Es fundamental saber con precisión qué parte del HTML queremos analizar. Para ello, conviene inspeccionar el código de la página primero.

11 – Contenido Duplicado

Para detectar contenido duplicado, Screaming Frog compara la similitud entre páginas usando un porcentaje que podemos definir. Normalmente, se considera “semiduplicado” a partir del 20% de coincidencia.

Pero hay un paso importante: indicar qué parte del contenido debe analizarse, excluyendo elementos repetitivos como el header, footer o sidebar. Esto se configura en:

Configuración -> Contenido -> Área de Contenido

Ahí podemos incluir o excluir por etiquetas, clases o ID. De esta forma nos centramos sólo en el contenido relevante.

SF5

12 – Redirecciones Internas

SF6

Podemos exportar un listado de todas las redirecciones internas para detectar posibles errores. Esto es muy útil para:

  • Corregir enlaces que apuntan a URLs con código 301 (innecesarios si podemos enlazar directamente a la versión final).

  • Localizar enlaces a páginas 404, que generan errores y afectan al SEO.

Para ello, usamos la exportación en bloque en el informe de redirecciones.

13 – Enlazado Interno

El enlazado interno es uno de los pilares del SEO técnico. Con Screaming Frog podemos:

  • Ver cuántos enlaces recibe cada URL.

  • Identificar páginas huérfanas o poco enlazadas.

  • Analizar la distribución del link juice.

Esto se hace desde el panel principal, en la pestaña “Internos”, o a través de exportaciones.

14 – Almacenamiento en Base de Datos

Por defecto, Screaming Frog almacena los rastreos en memoria, lo que puede limitar el análisis si el sitio es muy grande. Una alternativa es activar el almacenamiento en Base de Datos:

Archivo -> Configuración del Almacenamiento -> Base de Datos

Esto nos permite guardar crawls completos y compararlos posteriormente. Muy útil para auditorías recurrentes o comparaciones tras una migración.

15 – Detectar Páginas Huérfanas

Una página huérfana es aquella que no recibe ningún enlace interno, pero puede estar indexada o recibir tráfico.

Para detectarlas:

  • Cargamos manualmente los sitemaps.

  • Conectamos las APIs de Google Analytics y Search Console.

  • Activamos la opción:

    Configuración -> API de GA/GSC -> Rastrear nuevas URL descubiertas

Después del rastreo, vamos a:

Informes -> URL’s Huérfanas

Ahí veremos qué páginas reciben tráfico pero no están enlazadas internamente.

16 – Rastrear Sitios Grandes

SF7

Cuando analizamos webs con miles o millones de URLs, conviene:

  • Usar el modo de almacenamiento en base de datos.

  • Limitar la profundidad del rastreo.

  • Ajustar la velocidad de escaneo.

  • Usar filtros por carpetas o URL.

Esto mejora el rendimiento y evita que Screaming Frog colapse o que el servidor del sitio se sature.

17 – Rastrear Sitios con JavaScript

Muchas webs modernas cargan contenido dinámico con JS. Para detectar si una web usa JavaScript:

  1. Usamos la extensión Web Developer y desactivamos el JS.

  2. Si al recargar la web no se ve nada, significa que depende de JS.

Para rastrear ese contenido, activamos:

Configuración -> Renderizado -> JavaScript

Y podremos ver qué contenido ha sido renderizado correctamente en la pestaña Rendered Page.

18 – Migraciones con Screaming Frog

SF8

Caso 1: Comprobar redirecciones

  • Activamos Always Follow Redirects.

  • Subimos las URLs antiguas en modo lista.

  • Vamos a Informes -> Redirecciones -> Todas las redirecciones.

Así vemos si:

  • Las redirecciones llevan a páginas correctas.

  • Se están generando bucles o cadenas de redirección.

Caso 2: Comparación avanzada de rastreos

SF9

  • Rastrear el sitio en el entorno previo a la migración.

  • Rastrear la versión en producción.

  • Seleccionar el modo Compare, siempre que el almacenamiento esté en Base de Datos.

Si los dominios son distintos (por ejemplo, un entorno staging), podemos usar:

Configuración de Comparación -> Sustitución por Expresión Regular

Esto permite igualar URLs distintas y comparar correctamente los dos entornos.

SF10

19 – Incluir y Excluir Carpetas en Rastreo

Podemos limitar el rastreo a ciertas secciones de la web desde:

Configuración -> Incluir / Excluir

Esto es útil cuando solo queremos analizar un subdirectorio (como /blog o /productos), o si queremos evitar zonas como /admin o /privado.

SF11

20 – Parámetros en URLs

Los parámetros pueden distorsionar el rastreo si no se controlan. En Screaming Frog podemos:

  • Omitir todos los parámetros.

  • O excluirlos individualmente desde:

Configuración -> Reescritura de URL

Además, podemos limitar el número de cadenas de consulta desde:

Configuración de Rastreo -> Límites -> Número de parámetros

SF12

Diferencia entre:

  • Parámetros activos: modifican el contenido.

  • Parámetros pasivos: como los UTM, que no lo modifican.

21 – Tiempo de Respuesta y WPO

Para medir el rendimiento de carga de la web, tenemos dos opciones:

  • Ver el tiempo de respuesta en un rastreo normal.

  • Conectar la API de PageSpeed Insights y seleccionar las métricas que nos interesan.

Los resultados se muestran en el panel habitual y permiten detectar páginas lentas.

22 – Niveles de Profundidad

Screaming Frog muestra automáticamente el nivel de profundidad (número de clics desde la home) en la columna “Depth” dentro de la pestaña Internos.

Se recomienda que el contenido importante esté a menos de 3 clics de la página principal.

23 – SEO Internacional

Para analizar la etiqueta hreflang, debemos habilitar esta función:

SF13

Configuración -> Spider -> SEO Internacional

Una vez activado, veremos la información en el panel lateral. Esto nos permite detectar errores en la implementación del SEO multidioma.

SF14

24 – Rastrear Sitios con Login

Algunas webs muestran contenido diferente a los usuarios registrados. Para rastrearlo:

Configuración -> Autenticación -> Basada en Formularios

Introducimos la URL del login, accedemos con nuestras credenciales, y a partir de ahí Screaming Frog rastreará como si estuviéramos logueados.

25 – Paginaciones

Para rastrear correctamente la relación entre páginas paginadas:

Configuración -> Paginación rel=»next/prev» -> Habilitar

Esto nos permite auditar el marcado correcto de la paginación y detectar errores en el enlazado entre páginas.

26 – Enlaces a Recursos Inseguros

Después del rastreo, podemos comprobar si alguna URL está cargando contenido desde fuentes no seguras (HTTP):

Ir a la pestaña Seguridad
Seleccionar el filtro URL HTTP

Ahí veremos todos los recursos inseguros, que pueden generar advertencias en navegadores o afectar al SEO.

Posicionamiento SEO Granada | Luis García place picture
5.0
Basado en 7 reseñas.
powered by Google
Amin Kaidi Ruiz profile picture
Amin Kaidi Ruiz
01:19 04 Aug 22
Una experiencia inolvidable, el staff es muy profesional y amable, en ningún momento nos sentimos amateurs! Lo repetiremos una vez volvemos a Alicante ya que somos de Paris. Muchas gracias Akraboats
Delia Garcia profile picture
Delia Garcia
15:54 14 Apr 21
Estoy muy ilusionada con el proyecto que Luis está convirtiendo en web/blog. No sólo posee amplios conocimientos de lo suyo (que no entiendo nada de nada) es que sabe explicarlo todo para que las profanas de la informática nos enteremos. Su disposición y ayuda a encontrar la mejor forma de expresar mi idea es totalmente profesional y, a la vez, muy cercano. Me está encantando trabajar con él. Totalmente recomendable!!!!! Ojalá más informáticos como Luis!!! 😎🤟🏽
Alberto de la Cruz profile picture
Alberto de la Cruz
14:57 14 Apr 21
Profesional como la copa de un pino. Ha respondido con atención, resolución y experiencia en todos los proyectos en los que hemos colaborado. Si buscas un experto en SEO que posicione tu empresa o marca personal, ese es Luis.
Rocio Hernandez Cruz profile picture
Rocio Hernandez Cruz
19:46 24 Mar 21
Luis es un excelente profesional. He tenido la oportunidad de colaborar con él en varios proyectos y siempre se han conseguido muy buenos resultados. Si estás buscando alguien que te ayude con el SEO, sin duda, te lo recomiendo.
Lorenzo Guerrero profile picture
Lorenzo Guerrero
16:32 24 Mar 21
Hola familia!
Que tal?
Pues quiero decir que nosotros desde hace 2 años contratamos los servicios de Luis como SEO y para posicionamiento web y ha sido todo un éxito, atento, implicado y ha hecho que nuestra empresa esté más visible en google, aún siendo muy complicado en los días que corren.
Es todo un acierto que Luis esté ayudándonos.
Lo volvería a contratar 💯.
Gracias Luis García Estudio.
Inma Garcia Rosino profile picture
Inma Garcia Rosino
18:39 12 Feb 21
Buscaba algo concreto y Luis me ayudó a conseguirlo. Muy contenta con el servicio y el trato. Muy recomendable.
ANA V profile picture
ANA V
18:25 11 Feb 21
Muy profesional y buena relación calidad/precio. Contraté sus servicios porque necesitábamos una nueva página web para nuestro proyecto y también mejorar el posicionamiento. Y la verdad es que estamos muy contentas con el resultado y con la atención recibida. Lo recomiendo!
Amin Kaidi Ruiz profile picture
Amin Kaidi Ruiz
12:41 10 Feb 21
Carmen Victoria Martín Ruiz profile picture
Carmen Victoria Martín Ruiz
11:42 10 Feb 21
Excelente trabajo y profesionalidad. Muy cercano con el cliente y súper satisfecha con los resultados de mi tienda online!
Más reseñas
Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Evitar el Indexado de Parámetros en un Ecommerce

Evitar el Indexado de Parámetros en un Ecommerce

Introducción En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...

Penalizaciones SEO

Penalizaciones SEO

Introducción En el entorno del posicionamiento web, las penalizaciones SEO representan uno de los mayores riesgos para la visibilidad orgánica de un sitio. Estas sanciones pueden provocar una pérdida significativa de tráfico y posicionamiento en buscadores,...