+34 640 344 378 hola@luisgarcia.es

Evitar el Indexado de Parámetros en un Ecommerce

11 junio, 2025

Introducción

En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus filtros de navegación, sistemas de ordenación, paginaciones y otros elementos funcionales.

Cuando estas URLs son indexadas por Google, pueden generar graves problemas de SEO, como contenido duplicado, dilución de autoridad, canibalización de keywords e, incluso, afectaciones directas sobre el presupuesto de rastreo. Estos fenómenos terminan comprometiendo la eficiencia de la estrategia SEO global del proyecto.

El objetivo de este artículo es presentar de forma detallada los distintos métodos para gestionar la indexación de parámetros, diferenciando soluciones aplicables de forma genérica, específicas para WooCommerce en WordPress, y específicas para PrestaShop, dos de las plataformas de ecommerce más comunes.

El problema: por qué Google acaba indexando URLs con parámetros

Aunque pueda parecer sencillo bloquear el acceso a las URLs parametrizadas a través del archivo robots.txt, en la práctica esto no siempre es suficiente para frenar su indexación.

Google dispone de múltiples vías para descubrir e indexar URLs, incluso cuando su rastreo está bloqueado. Entre las principales razones por las que estas URLs terminan en el índice destacan:

Enlazado interno del propio ecommerce: las opciones de filtrado, ordenación o paginación generan enlaces parametrizados que están accesibles al robot de Google.

Enlaces externos: otras webs pueden enlazar accidentalmente a URLs con parámetros.

Errores en los sitemaps: algunos plugins o módulos SEO generan sitemaps que incluyen URLs parametrizadas.

Procesamiento independiente de Google: aunque Google no pueda rastrear una URL bloqueada por robots.txt, sí puede indexarla si la encuentra a través de otras señales.

Por este motivo, el bloqueo vía robots.txt resulta ser una medida incompleta.

Para obtener un control SEO efectivo, es imprescindible actuar directamente sobre las señales de indexación: meta robots o cabeceras HTTP.

Escenario genérico: controlar la indexación mediante htaccess y cabeceras

Cuando se trabaja sobre un servidor Apache, resulta muy eficaz controlar la indexación de parámetros mediante el propio servidor, sin depender del CMS. Esta aproximación es muy útil para proyectos que no utilizan WordPress ni PrestaShop, o en situaciones donde se desea un control absoluto desde el servidor web.

Objetivo

El objetivo es inyectar una cabecera HTTP X-Robots-Tag en todas aquellas URLs que contengan los parámetros indeseados, de forma que Google reciba directamente la instrucción de no indexar dichas páginas.

Ejemplo de código para .htaccess:

<IfModule moFd_rewrite.c>

RewriteEngine On

RewriteCond %{QUERY_STRING} (^|&)orderby= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)filter_color= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)filter_size= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)add-to-cart= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)product-page= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)onsale= [NC,OR]

RewriteCond %{QUERY_STRING} (^|&)rating_filter= [NC]

Header set X-Robots-Tag "noindex, follow"

</IfModule>

Este fragmento revisa si la URL contiene alguno de los parámetros especificados, y si es así, añade la cabecera X-Robots-Tag con la instrucción noindex, follow.

Ventajas y desventajas

Ventajas:

Se ejecuta antes de que el CMS procese la solicitud, reduciendo consumo de recursos.

Aplicable universalmente en cualquier CMS o sitio estático.

Desventajas:

Requiere acceso al servidor o permisos sobre el fichero .htaccess.

Algunos proveedores de hosting no permiten manipular cabeceras HTTP desde .htaccess.

WooCommerce (WordPress): control fino mediante plugin SEO o código

WooCommerce, al estar basado en WordPress, ofrece múltiples mecanismos para gestionar el control de indexación, especialmente gracias a la flexibilidad de sus plugins SEO.

Método ideal: filtro sobre Rank Math SEO

Rank Math, uno de los plugins SEO más populares en WordPress, permite modificar el comportamiento de las etiquetas meta robots mediante filtros PHP. Esta es una solución altamente precisa, profesional y sin riesgo de duplicidades de etiquetas.

add_filter( 'rank_math/frontend/robots', function( $robots ) {     if ( isset($_GET['orderby'])          || isset($_GET['filter_color'])          || isset($_GET['filter_size'])          || isset($_GET['add-to-cart'])          || isset($_GET['product-page'])          || isset($_GET['onsale'])          || isset($_GET['rating_filter']) ) {         $robots['index']  = 'noindex';         $robots['follow'] = 'follow';     }     return $robots; });

Ventajas de esta aproximación:

Control total desde el propio WordPress.

No se generan duplicidades de etiquetas robots.

Compatible incluso con la versión gratuita de Rank Math.

Permite personalizar dinámicamente qué parámetros se consideran problemáticos.

Alternativa sin código: plugins SEO premium

Para usuarios sin conocimientos técnicos, Rank Math PRO, Yoast SEO Premium o SEOPress PRO ofrecen funciones visuales que permiten excluir parámetros desde sus interfaces de administración.

Complemento: bloqueo parcial vía robots.txt

Como medida secundaria, es posible bloquear estos parámetros para el rastreo mediante el archivo robots.txt, aunque, como se ha explicado, esto no garantiza que Google no los indexe si los detecta por otras vías:

User-agent: *

Disallow: /*?orderby=

Disallow: /*?filter_color=

Disallow: /*?filter_size=

Disallow: /*?add-to-cart=

Disallow: /*?product-page=

Disallow: /*?onsale=

Disallow: /*?rating_filter=

PrestaShop: control de parámetros vía módulos o plantilla

En PrestaShop, la gestión de parámetros requiere un planteamiento diferente, ya que el sistema no ofrece por defecto un control granular sobre este aspecto.

A) Uso de módulos SEO

Existen módulos especializados como SEO Expert, Advanced SEO, o PrestaShop SEO Manager que permiten:

Controlar el indexado de URLs parametrizadas.

Gestionar correctamente las etiquetas canonicals.

Aplicar reglas de meta robots específicas para cada combinación de parámetros.

Estos módulos proporcionan una interfaz sencilla para gestionar el comportamiento SEO sin necesidad de modificar el código.

B) Modificación de plantillas (Smarty)

En proyectos más técnicos, es posible editar las plantillas Smarty de PrestaShop para inyectar la etiqueta meta robots en función de los parámetros detectados en la URL:

{if isset($smarty.get.orderby) || isset($smarty.get.filter_color) || isset($smarty.get.add-to-cart)}

    <meta name="robots" content="noindex,follow">

{/if}

Estos módulos proporcionan una interfaz sencilla para gestionar el comportamiento SEO sin necesidad de modificar el código.

C) Complementos adicionales

Revisar la configuración de canonicals para garantizar que las URLs limpias sean siempre las referenciadas.

Aplicar bloqueo en robots.txt como refuerzo.

Comparativa de métodos

A modo de resumen, se presenta la comparativa de las distintas soluciones según plataforma y nivel de dificultad:

Plataforma Método recomendado Nivel de control Dificultad
Genérico (Apache) X-Robots-Tag en htaccess Muy alto Media
WooCommerce Hook rank_math/frontend/robots Muy alto Baja
WooCommerce (sin código) Rank Math PRO o similar Alto Muy baja
PrestaShop Módulos SEO o modificación Smarty Alto Media
Robots.txt Complementario Bajo Muy baja

Conclusión

Gestionar correctamente el indexado de parámetros de URL es uno de los pilares esenciales dentro del SEO técnico para ecommerce.

Si no se controla, el crecimiento descontrolado de URLs parametrizadas puede:

Saturar el presupuesto de rastreo de Google.

Generar problemas de contenido duplicado.

Diluir la autoridad de las URLs relevantes.

Provocar canibalización de keywords.

Dificultar la interpretación de la estructura del sitio por parte de los motores de búsqueda.

Por tanto, una estrategia SEO sólida para ecommerce debería siempre incluir:

Control activo de la indexación mediante meta robots o cabeceras HTTP.

Canonicalización correcta de URLs.

Bloqueo parcial del rastreo como refuerzo adicional mediante robots.txt.

Cada plataforma ofrece herramientas y posibilidades específicas que, correctamente implementadas, permiten mantener la arquitectura SEO del ecommerce bajo control.

Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Cómo Hacer un Plan de Contenidos para un Blog

Cómo Hacer un Plan de Contenidos para un Blog

Manual SEO: Definición de Plan de Contenidos con SE Ranking Este manual se centra en dos pilares críticos: qué escribir (Gap de contenido) y cada cuánto escribir (Ritmo de publicación). Función 1: Descubrir el "Gap de Contenido" (Brecha de Palabras Clave) El objetivo...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...

Penalizaciones SEO

Penalizaciones SEO

Introducción En el entorno del posicionamiento web, las penalizaciones SEO representan uno de los mayores riesgos para la visibilidad orgánica de un sitio. Estas sanciones pueden provocar una pérdida significativa de tráfico y posicionamiento en buscadores,...