+34 640 344 378 hola@luisgarcia.es

REGEX para SEO

Tiempo de lectura: 5 minutos
21 abril, 2025
Valorar post

Las expresiones regulares, conocidas como regex, son patrones utilizados para buscar coincidencias dentro de cadenas de texto. Aunque su apariencia pueda parecer intimidante al principio, dominar regex puede marcar una gran diferencia en la eficacia de tareas SEO técnicas, analíticas y de automatización.

A lo largo de esta guía exploraremos qué son, cómo funcionan, y cómo se pueden aplicar en distintas herramientas SEO.

Una herramienta muy útil para probar expresiones regulares es:
🔗 https://regex101.com/

1. ¿Qué son las expresiones regulares?

Una expresión regular es una secuencia de caracteres que define un patrón de búsqueda. Se utilizan para identificar cadenas específicas de texto dentro de grandes volúmenes de datos.

Por ejemplo, podrías usar regex para encontrar todas las URLs de un sitio que contengan /blog/, o extraer los IDs numéricos de un listado de productos.

2. ¿Por qué son útiles en SEO?

Las expresiones regulares permiten trabajar de forma más eficiente y precisa con:

URLs

Parámetros

Estructuras de contenido

Encabezados

Redirecciones

En tareas como:

Auditorías técnicas

Análisis de logs

Filtros en Search Console

Configuración de robots.txt y htaccess

Segmentación en Google Analytics

Gracias a su versatilidad, se han convertido en una habilidad muy valiosa para SEOs técnicos y analistas de datos.

3. Conceptos básicos que debes entender antes de usar regex

Antes de usar expresiones regulares, conviene tener claras algunas ideas clave:

Las regex distinguen entre mayúsculas y minúsculas, salvo que se indique lo contrario.

Cada carácter puede tener un significado especial, por lo que algunos deben «escaparse» con una barra invertida (\), como el punto (\.).

Se trabaja por patrones: no buscan texto exacto, sino coincidencias estructurales.

Suelen evaluarse en herramientas que permiten usar modo regex (como GSC, Screaming Frog, Google Sheets, etc.).

4. Cómo empezar a usar regex

La forma más fácil de empezar es:

  1. Abrir regex101.com
  2. Escribir un texto de prueba (por ejemplo, una lista de URLs)
  3. Ir probando patrones simples (como ^/blog/ o \.html$)
  4. Usar la explicación interactiva que ofrece la herramienta

A partir de ahí, puedes pasar a aplicarlas en entornos reales como Google Search Console o Google Sheets.

5. Buenas prácticas al usar regex en SEO

Escapa siempre los caracteres especiales cuando los uses como texto literal (., /, ?, etc.).

Empieza por patrones simples y ve añadiendo complejidad poco a poco.

Comprueba tus patrones antes de aplicarlos en herramientas sensibles como .htaccess.

Documenta tus regex si las vas a compartir o reutilizar en equipo.

6. Ejemplos sencillos para empezar

Aquí algunos patrones básicos:

ObjetivoExpresión Regex
URLs que terminan en .html\.html$
URLs que empiezan por /blog/^/blog/
URLs con números\d+
Cadenas que no terminan en /[^/]$
Coincidencia con http o https^https?://

 

Estos patrones pueden combinarse, modificarse y aplicarse a necesidades mucho más complejas.

7. Dónde se utilizan las expresiones regulares en SEO

Las expresiones regulares pueden aplicarse en múltiples entornos dentro del trabajo SEO:

🗂 Archivos

robots.txt: para bloquear o permitir ciertas rutas mediante patrones.

.htaccess: para redirecciones o reescrituras de URLs mediante mod_rewrite.

🔍 Herramientas de análisis

Google Search Console: para filtrar resultados por URLs.

Google Analytics: para crear segmentos avanzados.

Screaming Frog: para extraer datos como precios o migas de pan.

Google Sheets: para automatizar tareas de limpieza, extracción o transformación de datos.

7.1 Elementos más relevantes de las expresiones regulares

A continuación se presenta una tabla con algunos elementos importantes en lo que se refiere a las REGEX:

CategoríaSímbolo o EjemploDescripción
A) Anclas y límites^Inicio de cadena
$Fin de cadena
B) Caracteres.Cualquier carácter excepto salto de línea
\.Punto literal
\dDígito entre 0 y 9
\DNo es un dígito
\wCarácter de palabra (letra, número o guion bajo)
\WNo es carácter de palabra
\sEspacio en blanco, tabulación o salto de línea
\SCualquier cosa que no sea espacio
C) Cuantificadores*Cero o más apariciones
?Cero o una aparición del carácter anterior
+Una o más apariciones
{n}Exactamente n repeticiones
{n,}Al menos n repeticiones
{n,m}Entre n y m repeticiones
D) Operadores|OR lógico (alternancia)
(…)Grupo de captura
E) Clases de caracteres[abc]Uno de los caracteres especificados
[a-z]Cualquier carácter entre «a» y «z»
[^x]Cualquier carácter que no sea «x»
[^x-y]Cualquier carácter que no esté entre «x» y «y»
NotaDentro de [], ^ niega el conjunto, no indica inicio
F) Espacios\s, \t, \nEspacio, tabulador, salto de línea
G) ModificadoresgCoincidencia global
iIgnora mayúsculas/minúsculas
mModo multilínea (interpreta ^ y $ en cada línea)

 

7.2 – Algunos Ejemplos REGEX

7.2.1 – Frecuencia que Googlebot visita una URL concreta

Para analizar esto, se pueden usar los logs del servidor y aplicar expresiones regulares sobre ellos. Por ejemplo:

Googlebot.*\/mi-url-especifica

Este patrón localiza accesos de Googlebot a una URL determinada. Luego se cuentan las coincidencias para obtener la frecuencia de rastreo.

7.2.2 – Cuántas veces se repite un criterio o encabezado

Para contar encabezados (H1, H2, H3) dentro del HTML de una página:

<h[1-3]>.*?<\/h[1-3]>

Este patrón encuentra todas las etiquetas H1, H2 y H3, útil para auditorías de contenido y comprobar si hay encabezados duplicados.

7.2.3 – Redirección desde /es/ a la versión sin idioma

RedirectMatch 301 ^/es/(.*) /$1

Esto elimina el prefijo /es/ de las URLs, redirigiendo a la misma ruta sin el idioma. Muy útil en proyectos multilingües que han decidido eliminar el prefijo de idioma.

7.2.4 – Rastrear o bloquear URLs con determinada profundidad

Para detectar URLs con profundidad de 4 niveles:

/*/*/*/*

En Screaming Frog se puede usar para limitar el análisis, y en robots.txt para bloquear ciertos directorios demasiado profundos.

7.2.5 – URLs que pertenecen a determinada categoría

\/.*\/10-calzado-laboral\/.*

Coincide con cualquier URL que contenga /10-calzado-laboral/, útil para aislar categorías específicas.

7.2.6 – URL del tipo proyecto-de-[loquesea].html

proyecto-de-[^\/]+\.html$

Coincide con URLs como proyecto-de-clientes.html, capturando cualquier valor tras «proyecto-de-» que no contenga /.

8 – REGEX en Google Search Console

Al trabajar con filtros personalizados, hay que escapar ciertos caracteres especiales. Por ejemplo, para ver las URLs de “pantallas LED” en GSC:

https:\/\/www\.rotuloselectronicos\.net\/pantallas-led.*

Escapar /, . y : es obligatorio.

9 – REGEX en Google Sheets

Google Sheets ofrece funciones que permiten aplicar regex sobre columnas de texto:

REGEXMATCH(texto, regex)

Devuelve TRUE o FALSE si hay coincidencia.

=REGEXMATCH(A2, «cruz|cruces|farmacia»)

REGEXREPLACE(texto, regex, reemplazo)

Reemplaza coincidencias por otro texto.

=REGEXREPLACE(A2, «sexis|sensuales», «eróticas»)

REGEXEXTRACT(texto, regex)

Extrae fragmentos capturados.

=REGEXEXTRACT(A2, «^\/[^/]+\/([^/]+)\/$»)

Para extraer un valor, debe ir entre paréntesis ( ) dentro del patrón.

10 – REGEX en Screaming Frog

Screaming Frog permite aplicar regex para:

Extraer valores de migas de pan (breadcrumb).

Detectar encabezados repetidos.

Filtrar URLs por nivel:

^\/[^\/]+\/[^\/]+\/[^\/]+\/$

11 – REGEX en .htaccess

Redirección de HTTP a HTTPS

RewriteEngine on

RewriteCond %{HTTPS} !=on

RewriteRule ^(.*)$ https://www.midominio.com/$1 [R=301,L]

Transformación de URLs amigables

RewriteRule ^producto/([0-9]+)$ producto.php?id=$1

El módulo mod_rewrite permite estas configuraciones directamente en el .htaccess.

Conclusión

Dominar las expresiones regulares te da una ventaja significativa en el mundo del SEO. Te permiten automatizar tareas, filtrar grandes volúmenes de información y adaptar estructuras complejas. Desde Search Console hasta Screaming Frog, pasando por Analytics, hojas de cálculo o archivos de configuración, las regex están en todas partes.

💡 Recurso recomendado:
regex101.com para probar, depurar y entender patrones de forma visual.

5.0
Basado en 7 reseñas.
powered by Google
Amin Kaidi Ruiz
01:19 04 Aug 22
Una experiencia inolvidable, el staff es muy profesional y amable, en ningún momento nos sentimos amateurs! Lo repetiremos una vez volvemos a Alicante ya que somos de Paris. Muchas gracias Akraboats
Delia Garcia
15:54 14 Apr 21
Estoy muy ilusionada con el proyecto que Luis está convirtiendo en web/blog. No sólo posee amplios conocimientos de lo suyo (que no entiendo nada de nada) es que sabe explicarlo todo para que las profanas de la informática nos enteremos. Su disposición y ayuda a encontrar la mejor forma de expresar mi idea es totalmente profesional y, a la vez, muy cercano. Me está encantando trabajar con él. Totalmente recomendable!!!!! Ojalá más informáticos como Luis!!! 😎🤟🏽
Alberto de la Cruz
14:57 14 Apr 21
Profesional como la copa de un pino. Ha respondido con atención, resolución y experiencia en todos los proyectos en los que hemos colaborado. Si buscas un experto en SEO que posicione tu empresa o marca personal, ese es Luis.
Rocio Hernandez Cruz
19:46 24 Mar 21
Luis es un excelente profesional. He tenido la oportunidad de colaborar con él en varios proyectos y siempre se han conseguido muy buenos resultados. Si estás buscando alguien que te ayude con el SEO, sin duda, te lo recomiendo.
Lorenzo Guerrero
16:32 24 Mar 21
Hola familia!Que tal?Pues quiero decir que nosotros desde hace 2 años contratamos los servicios de Luis como SEO y para posicionamiento web y ha sido todo un éxito, atento, implicado y ha hecho que nuestra empresa esté más visible en google, aún siendo muy complicado en los días que corren.Es todo un acierto que Luis esté ayudándonos.Lo volvería a contratar 💯.Gracias Luis García Estudio.
Inma Garcia Rosino
18:39 12 Feb 21
Buscaba algo concreto y Luis me ayudó a conseguirlo. Muy contenta con el servicio y el trato. Muy recomendable.
ANA V
18:25 11 Feb 21
Muy profesional y buena relación calidad/precio. Contraté sus servicios porque necesitábamos una nueva página web para nuestro proyecto y también mejorar el posicionamiento. Y la verdad es que estamos muy contentas con el resultado y con la atención recibida. Lo recomiendo!
Amin Kaidi Ruiz
12:41 10 Feb 21
Carmen Victoria Martín Ruiz
11:42 10 Feb 21
Excelente trabajo y profesionalidad. Muy cercano con el cliente y súper satisfecha con los resultados de mi tienda online!
Más reseñas
Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Evitar el Indexado de Parámetros en un Ecommerce

Evitar el Indexado de Parámetros en un Ecommerce

Introducción En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...

Penalizaciones SEO

Penalizaciones SEO

Introducción En el entorno del posicionamiento web, las penalizaciones SEO representan uno de los mayores riesgos para la visibilidad orgánica de un sitio. Estas sanciones pueden provocar una pérdida significativa de tráfico y posicionamiento en buscadores,...

×