+34 640 344 378 hola@luisgarcia.es

REGEX para SEO

21 abril, 2025

Las expresiones regulares, conocidas como regex, son patrones utilizados para buscar coincidencias dentro de cadenas de texto. Aunque su apariencia pueda parecer intimidante al principio, dominar regex puede marcar una gran diferencia en la eficacia de tareas SEO técnicas, analíticas y de automatización.

A lo largo de esta guía exploraremos qué son, cómo funcionan, y cómo se pueden aplicar en distintas herramientas SEO.

Una herramienta muy útil para probar expresiones regulares es:
🔗 https://regex101.com/

1. ¿Qué son las expresiones regulares?

Una expresión regular es una secuencia de caracteres que define un patrón de búsqueda. Se utilizan para identificar cadenas específicas de texto dentro de grandes volúmenes de datos.

Por ejemplo, podrías usar regex para encontrar todas las URLs de un sitio que contengan /blog/, o extraer los IDs numéricos de un listado de productos.

2. ¿Por qué son útiles en SEO?

Las expresiones regulares permiten trabajar de forma más eficiente y precisa con:

URLs

Parámetros

Estructuras de contenido

Encabezados

Redirecciones

En tareas como:

Auditorías técnicas

Análisis de logs

Filtros en Search Console

Configuración de robots.txt y htaccess

Segmentación en Google Analytics

Gracias a su versatilidad, se han convertido en una habilidad muy valiosa para SEOs técnicos y analistas de datos.

3. Conceptos básicos que debes entender antes de usar regex

Antes de usar expresiones regulares, conviene tener claras algunas ideas clave:

Las regex distinguen entre mayúsculas y minúsculas, salvo que se indique lo contrario.

Cada carácter puede tener un significado especial, por lo que algunos deben «escaparse» con una barra invertida (\), como el punto (\.).

Se trabaja por patrones: no buscan texto exacto, sino coincidencias estructurales.

Suelen evaluarse en herramientas que permiten usar modo regex (como GSC, Screaming Frog, Google Sheets, etc.).

4. Cómo empezar a usar regex

La forma más fácil de empezar es:

  1. Abrir regex101.com
  2. Escribir un texto de prueba (por ejemplo, una lista de URLs)
  3. Ir probando patrones simples (como ^/blog/ o \.html$)
  4. Usar la explicación interactiva que ofrece la herramienta

A partir de ahí, puedes pasar a aplicarlas en entornos reales como Google Search Console o Google Sheets.

5. Buenas prácticas al usar regex en SEO

Escapa siempre los caracteres especiales cuando los uses como texto literal (., /, ?, etc.).

Empieza por patrones simples y ve añadiendo complejidad poco a poco.

Comprueba tus patrones antes de aplicarlos en herramientas sensibles como .htaccess.

Documenta tus regex si las vas a compartir o reutilizar en equipo.

6. Ejemplos sencillos para empezar

Aquí algunos patrones básicos:

Objetivo Expresión Regex
URLs que terminan en .html \.html$
URLs que empiezan por /blog/ ^/blog/
URLs con números \d+
Cadenas que no terminan en / [^/]$
Coincidencia con http o https ^https?://

 

Estos patrones pueden combinarse, modificarse y aplicarse a necesidades mucho más complejas.

7. Dónde se utilizan las expresiones regulares en SEO

Las expresiones regulares pueden aplicarse en múltiples entornos dentro del trabajo SEO:

🗂 Archivos

robots.txt: para bloquear o permitir ciertas rutas mediante patrones.

.htaccess: para redirecciones o reescrituras de URLs mediante mod_rewrite.

🔍 Herramientas de análisis

Google Search Console: para filtrar resultados por URLs.

Google Analytics: para crear segmentos avanzados.

Screaming Frog: para extraer datos como precios o migas de pan.

Google Sheets: para automatizar tareas de limpieza, extracción o transformación de datos.

7.1 Elementos más relevantes de las expresiones regulares

A continuación se presenta una tabla con algunos elementos importantes en lo que se refiere a las REGEX:

Categoría Símbolo o Ejemplo Descripción
A) Anclas y límites ^ Inicio de cadena
$ Fin de cadena
B) Caracteres . Cualquier carácter excepto salto de línea
\. Punto literal
\d Dígito entre 0 y 9
\D No es un dígito
\w Carácter de palabra (letra, número o guion bajo)
\W No es carácter de palabra
\s Espacio en blanco, tabulación o salto de línea
\S Cualquier cosa que no sea espacio
C) Cuantificadores * Cero o más apariciones
? Cero o una aparición del carácter anterior
+ Una o más apariciones
{n} Exactamente n repeticiones
{n,} Al menos n repeticiones
{n,m} Entre n y m repeticiones
D) Operadores | OR lógico (alternancia)
(…) Grupo de captura
E) Clases de caracteres [abc] Uno de los caracteres especificados
[a-z] Cualquier carácter entre «a» y «z»
[^x] Cualquier carácter que no sea «x»
[^x-y] Cualquier carácter que no esté entre «x» y «y»
Nota Dentro de [], ^ niega el conjunto, no indica inicio
F) Espacios \s, \t, \n Espacio, tabulador, salto de línea
G) Modificadores g Coincidencia global
i Ignora mayúsculas/minúsculas
m Modo multilínea (interpreta ^ y $ en cada línea)

 

7.2 – Algunos Ejemplos REGEX

7.2.1 – Frecuencia que Googlebot visita una URL concreta

Para analizar esto, se pueden usar los logs del servidor y aplicar expresiones regulares sobre ellos. Por ejemplo:

Googlebot.*\/mi-url-especifica

Este patrón localiza accesos de Googlebot a una URL determinada. Luego se cuentan las coincidencias para obtener la frecuencia de rastreo.

7.2.2 – Cuántas veces se repite un criterio o encabezado

Para contar encabezados (H1, H2, H3) dentro del HTML de una página:

<h[1-3]>.*?<\/h[1-3]>

Este patrón encuentra todas las etiquetas H1, H2 y H3, útil para auditorías de contenido y comprobar si hay encabezados duplicados.

7.2.3 – Redirección desde /es/ a la versión sin idioma

RedirectMatch 301 ^/es/(.*) /$1

Esto elimina el prefijo /es/ de las URLs, redirigiendo a la misma ruta sin el idioma. Muy útil en proyectos multilingües que han decidido eliminar el prefijo de idioma.

7.2.4 – Rastrear o bloquear URLs con determinada profundidad

Para detectar URLs con profundidad de 4 niveles:

/*/*/*/*

En Screaming Frog se puede usar para limitar el análisis, y en robots.txt para bloquear ciertos directorios demasiado profundos.

7.2.5 – URLs que pertenecen a determinada categoría

\/.*\/10-calzado-laboral\/.*

Coincide con cualquier URL que contenga /10-calzado-laboral/, útil para aislar categorías específicas.

7.2.6 – URL del tipo proyecto-de-[loquesea].html

proyecto-de-[^\/]+\.html$

Coincide con URLs como proyecto-de-clientes.html, capturando cualquier valor tras «proyecto-de-» que no contenga /.

8 – REGEX en Google Search Console

Al trabajar con filtros personalizados, hay que escapar ciertos caracteres especiales. Por ejemplo, para ver las URLs de “pantallas LED” en GSC:

https:\/\/www\.rotuloselectronicos\.net\/pantallas-led.*

Escapar /, . y : es obligatorio.

9 – REGEX en Google Sheets

Google Sheets ofrece funciones que permiten aplicar regex sobre columnas de texto:

REGEXMATCH(texto, regex)

Devuelve TRUE o FALSE si hay coincidencia.

=REGEXMATCH(A2, «cruz|cruces|farmacia»)

REGEXREPLACE(texto, regex, reemplazo)

Reemplaza coincidencias por otro texto.

=REGEXREPLACE(A2, «sexis|sensuales», «eróticas»)

REGEXEXTRACT(texto, regex)

Extrae fragmentos capturados.

=REGEXEXTRACT(A2, «^\/[^/]+\/([^/]+)\/$»)

Para extraer un valor, debe ir entre paréntesis ( ) dentro del patrón.

10 – REGEX en Screaming Frog

Screaming Frog permite aplicar regex para:

Extraer valores de migas de pan (breadcrumb).

Detectar encabezados repetidos.

Filtrar URLs por nivel:

^\/[^\/]+\/[^\/]+\/[^\/]+\/$

11 – REGEX en .htaccess

Redirección de HTTP a HTTPS

RewriteEngine on

RewriteCond %{HTTPS} !=on

RewriteRule ^(.*)$ https://www.midominio.com/$1 [R=301,L]

Transformación de URLs amigables

RewriteRule ^producto/([0-9]+)$ producto.php?id=$1

El módulo mod_rewrite permite estas configuraciones directamente en el .htaccess.

Conclusión

Dominar las expresiones regulares te da una ventaja significativa en el mundo del SEO. Te permiten automatizar tareas, filtrar grandes volúmenes de información y adaptar estructuras complejas. Desde Search Console hasta Screaming Frog, pasando por Analytics, hojas de cálculo o archivos de configuración, las regex están en todas partes.

💡 Recurso recomendado:
regex101.com para probar, depurar y entender patrones de forma visual.

Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Cómo Hacer un Plan de Contenidos para un Blog

Cómo Hacer un Plan de Contenidos para un Blog

Manual SEO: Definición de Plan de Contenidos con SE Ranking Este manual se centra en dos pilares críticos: qué escribir (Gap de contenido) y cada cuánto escribir (Ritmo de publicación). Función 1: Descubrir el "Gap de Contenido" (Brecha de Palabras Clave) El objetivo...

Evitar el Indexado de Parámetros en un Ecommerce

Evitar el Indexado de Parámetros en un Ecommerce

Introducción En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...