+34 640 344 378 hola@luisgarcia.es

Cómo Trabajar el SEO Técnico

Tiempo de lectura: 12 minutos
15 febrero, 2025
Valorar post

Sabemos que en el SEO existen diferentes áreas o disciplinas a tener en cuenta. Una de ellas es el SEO Técnico. Podríamos entenderlo como la puesta a punto necesaria de la web antes de realizar acciones de crecimiento del tráfico. Es el complemento necesario al SEO de Contenidos y al LinkBuilding. A continuación vamos a desgranar todos los puntos de este tipo de técnicas y cómo trabajar el SEO Técnico.

 

1 – El SEO Técnico como Punto de Partida

Todas las áreas del SEO son necesarias para posicionar una web, pero podemos decir que existe cierta jerarquía entre ellas. Quizá esta jerarquía no responda a una cuestión de importancia, pero si responde a qué tareas es necesario haber realizado antes de abordar otras.

En este sentido, podemos afirmar que antes de trabajar el SEO más expansivo, debemos tener la maquinaria afinada para que todos los esfuerzos y recursos que se inviertan, por ejemplo, en contenidos y LinkBuilding se maximicen y devuelvan los mejores resultados.

Pues esta puesta punto la podemos llamar SEO Técnico. Digamos que todas las acciones de esta rama del SEO están orientadas a dos objetivos concretos:

  Facilitar el rastreo e indexación de la web por parte de los motores de búsqueda.

  Generar la mejor experiencia de usuario posible.

Para lograr estos objetivos, es importante atender a los siguientes puntos:

 

2 – Servidor

El servidor es el encargado de servir las páginas tanto a los usuarios como a los bots. Un mal funcionamiento de este, puede dificultar el acceso a las URL’s, comprometiendo el posicionamiento, hasta el punto de poder llegar a desindexarse las páginas.

En este punto, recordar que todos los errores 5XX tienen que ver con el servidor. Pero no solo los errores pueden afectar al posicionamiento. Un tiempo de espera elevado, o los problemas para renderizar las páginas (sobre todo JavaScript), pueden hacer que los rastreadores accedan a versiones parcialmente cargadas.

Para que el servidor esté optimizado y ofrezca mejores posibilidades para el posicionamiento, es necesario que sus características sean las apropiadas. En este sentido, es necesario atender a cuestiones como:

  El tipo de disco que usa. En este sentido hay 2 opciones: HHD y SSD. Para el SEO, se recomiendan los discos SSD, aunque su coste sea más elevado.

  La capacidad de disco. Es bueno disponer de capacidad de almacenamiento suficiente, ya que a mayor ocupación del disco, mayor lentitud en el acceso y recuperación de los datos.

  La memoria RAM. Fundamental contar con suficiente memoria para servir las páginas de nuestro sitio.

  Capacidad de tráfico. Es importante asegurarnos que no nos afecta cualquier limitación de tráfico, por lo que debemos tener contratada suficiente capacidad.

Esta web está alojada en los servidores de Webempresa.

Hosting WordPress < /a>

 

3 – Certificados del Dominio

Tener un certificado seguro en el dominio es muy importante tanto desde el punto de vista del usuario, como la hora de ser calificado por los buscadores.

La mayoría de los servidores proporcionan estos servidores de forma gratuita.

Es posible que tras las instalación del certificado, el navegador nos indique que sigue habiendo elementos no seguros. Esto sucede porque pueden quedar en el código llamadas a elementos bajo el protocolo http. Para solucionar esto, en Worpdress existe el plugin  Really Simple SSL.

 

4 – Código Fuente

Muy importante a la hora de trabajar el SEO Técnico, es la limpieza y optimización del código fuente de la web. Para ello, podemos tener en cuenta lo siguiente:

  CMS y plantilla utilizadas. Es importante asegurarnos que los elementos que elegimos están optimizados.

  Minificar los los archivos HTML, CSS y JS. Para esto, existen numeros plugin en Wordpres, como Rank Math y Autoptimize.

 

5 – Bases de Datos

Otro elemento importante que debemos mantener optimizado son las Bases de Datos de nuestra web. Es muy habitual que estos registros acaben teniendo cantidad de información que ya no necesitamos, y que otro tipo de información no se encuentre almacenada de la manera más eficiente.

Por ello es necesario tener esto controlado, y que las consultas y modificaciones en las Bases de Datos, se hagan de la forma más óptima posible.

Para esta tarea, también contamos en WordPress con plugins que nos pueden ayudar, como WP-Sweep, que realiza tareas como limpiar revisiones, comentarios sin aprobar, metas de páginas o entradas huérfanas, optimiza las tablas, etc… Sin duda muy útil.

6 – Optimización del Rastreo

A la hora de optimizar el SEO Técnico de una web, es importante tener configurar y optimizar la forma en que los motores de búsqueda pueden rastrear nuestra web. Para ello es muy importante fijarnos en los siguiente aspectos:

 

6.1 – Códigos Respuesta del Servidor

En primer lugar, debemos conocer las respuestas que reciben los rastreadores por parte de los servidores cuando intentan acceder a los recursos para rastrear la web. El análisis de estos código respuesta será importante porque la capacidad de acceso a los servidores es fundamental para el SEO. Los tipos de códigos respuesta que nos podemos encontrar, son los siguientes:

  Códigos 2XX: Petición resuelta con éxito

  Códigos 3XX: Redirecciónes

  Códigos 4XX: Recurso no Accesible por no existir o estar prohibido

  Códigos 5XX: Fallo del servidor

Para analizar estos códigos respuesta, una buena opción es usar un crawler como Screamming Frog. En función de los códigos de respuesta obtenidos, deberemos trabajar para resolver los posibles problemas que existan.

 

6.2 – Tipos de Archivos

Otro aspecto importante a la hora analizar el rastreo, es saber el tipo de archivos que se encontrará el rastreador en su paso por la web. En este punto, prestaremos especial atención a los tipos de archivos más habituales a los que acceden estos rastreadores: HTML, CSS, JS e Imágenes.

En lo que se refiere al tratamiento de estos archivos, debemos asegurarnos de lo siguiente:

  Su acceso está habilitado (recomendable en la mayoría de los casos).

  En el caso de HTML, CSS y JS, deben estar minificados u optimizados de alguna forma.

  En el caso de las imágenes, deben estar bien etiquetadas y optimizadas en cuanto a peso y tamaño.

 

6.2 – Optimización de Nuestro Crawl Budget

Este concepto es clave a la hora de trabajar el rastreo es el Crawl Budget, o Presupuesto de Rastreo. Responde a la cantidad de recursos (tiempo) que emplea el buscador en rastrear nuestra web. Este tiempo es variable y suele cambiar en función de la antigüedad o autoridad del dominio, o del tipo de web cómo esté trabajada.

Asumiendo esta limitación en la asignación de recursos, es necesario indicar a los rastreadores que URL’s o zonas de la web son prioritarias para el rastreo, ya que queremos indexarlas y posicionarlas antes.

Estas indicaciones las daremos a partir de los siguientes archivos: sitemap.xml y robots.txt

 

6.3 – Sitemap.xml

Como su propia nombre indica, se trata de crear un archivo que contendrá un mapa con la estructura de nuestra web, y en el que incluiremos preferentemente aquellas URL’s que consideremos relevantes, y cuya indexación y posicionamientos sean prioritarias.

Aunque existen plugins para WordPress que generan este tipo de archivos de forma automática a partir de las configuraciones que le indiquemos (como Rank Math y Yoast SEO), es muy importante realizar seguimientos manuales para asegurarnos de que estos archivos contienen la información exacta que queremos.

 

6.4 – Robots.txt

Si con el archivo Sitemap.xml ayudamos a los buscadores a rastrear nuestra web, con el archivo Robots.txt, indicaremos lo siguiente:

  Que rastreadores (User-Agent) pueden acceder a la, y cuales no.

  A que URL’s, o conjunto de las mismas, están permitido el acceso (Allow), y a cuales no (Disallow). Para indicar esto se pueden indicar las URL’s específicas, o se pueden usar expresiones regulares.

  Ruta de Sitemap.xml. Debido a que este archivo es el primero que buscan los rastreadores, es aconsejable indicarle donde debe ir para encontrar el mapa del sitio.

La configuración y todo lo que puede incluirse en este archivo, así como su alcance, dan para un estudio a fondo mucho más amplio. Con las indicaciones anteriores ya podemos tener una idea del potencial y la importancia para el SEO del Robots.txt.

 

6.5 – Breadcrumbs

Los menús de breadcrumbs, o migas de pan, son elementos que indican, mediante enlaces, la ruta de la URL en la que nos encontramos. Son elementos importantes, desde los siguientes puntos de vista:

  Experiencia de Usuario.

  Distribución del Page Rank.

  Facilidad a los buscadores para el Rastreo.

 

6.6 – Paginación

La paginación es algo muy habitual en las páginas web. Se usa tanto para entradas de blog, como para productos, como para cualquier tipo de contenido que contiene muchos elementos.

Para que los motores de búsqueda puedan rastrear las URL’s que forman parte de una cadena de paginación, es necesario indicarlo correctamente y colocar las etiquetas adecuadas (rel=»next» href…. y rel=»prev» href…)

De esta manera, indicaremos a los rastreadores que se encuentran ante una página paginación, y cual es la siguiente URL que deben visitar.

 

6.7 – Arquitectura Web

A la hora de facilitar el rastreo de una web, es muy importante que esta tenga una estructura que facilite el paso de los rastreadores entre las diferentes URL’s y las diferentes secciones de la web. Para ellos necesitamos una estructura limpia, optimizada, y bien enlazada.

 

6.8 – Páginas Huérfanas

Para un buen rastreo de toda la web por parte de los motores de búsqueda, es muy importante que no haya ninguna URL que no esté al menos conectada con al menos una página más. En función de la importancia de la URL, deberán existir más enlaces hacia esa página.

 

6.9 – Profundidad de Página

Hay un aspecto relevante a la hora de organizar la arquitectura y el rastre de una página web, y es la profundidad a la que se encuentra una determinada URL. Esta profundidad representa el número de clicks que son necesarios para llegar a esta URL desde la home. Además de dificultar el acceso a la URL, el hecho de que una determinada web a esté a cierto nivel de profundidad, hace que le afecte de menor o mayor manera el llamado Dumping Factor.

El Dumping Factor es una corrección que se realiza sobre el Page Rank de una URL en función de su nivel de profundidad. Se estima que por cada nivel que nos alejamos de la home, se pierde un 15% de este Page Rank.

 

6.10 – Registro de Logs

Es importante realizar un seguimiento de lo que sucede cuando los rastreadores visitan nuestra web y navegan a través de ella. Para ello es muy útil y análisis de los logs del servidor. El registro que deja, por ejemplo Google, en nuestro servidor cuando lo visita, lo podemos estudiar con herramientas como Screamming Frog Log Analyzer, y de esta forma sabremos si las configuraciones que hacemos son efectivas a la hora de indicar nuestras preferencias de rastreo.

 

7 – Optimización de la Indexación

A la hora de indicar a los motores de búsqueda que preferencias tenemos sobre la forma en que queremos que se indexen las páginas, tenemos varias opciones.

 

7.1 – Acceso de los bots a las páginas

Para que se pueda realizar la indexación por parte de los motores de búsqueda, es necesario que previamente hayamos permitido el acceso a los mismos a nuestras URL’s. Como hemos indicado en secciones anteriores, esto lo realizaremos configurando correctamente el archivo Robots.txt, y sus directivas Allow y Disallow.

 

7.2 – Directivas de Indexación

Existen 2 tipos de indicaciones que le podemos dar a los rastreadores para decirles cómo queremos que trate una página determinada y sus elementos: directivas y sugerencias. Como su propio nombre indica, las primeras son de obligado de cumplimiento por los buscadores, mientras que las segundas son sugerencias para que el buscador las tenga en cuenta.

Pues bien, centrándonos en las directivas de indexación, existen lo que se denomina las etiquetas meta-robots. Estas etiquetas tiene 2 parámetros fundamentales, cada uno de los cuales puede tomar 2 valores. indicamos

   Parámetro de indexación: se encarga de decir a los rastreadores si esa página debe ser indexada o no. Sus posible valores son Index / No Index.

  Parámetro de Seguimiento de Enlaces: se encarga de decir a los rastreadores si deben seguir y rastrear los enlaces que se encuentren dentro de esa página. Sus posibles valore son Follow / No Follow.

 

7.3 – Sugerencias de Indexación

Como ya hemos comentado, existen otros tipo de indicaciones que dan información a los rastreadores sobre cómo deben interpretar algunos aspectos de la web, siendo ellos en última instancia los que decidan como utilizar la información incluida en la directiva.

Estas sugerencias de indexación son las siguientes:

  Canonical: es una etiqueta que indica, dentro de una URL, cual es la URL principal relacionada con el contenido o los elementos que dicha URL contiene. Se explica mejor con un ejemplo: si tenemos 2 URL’s, por ejemplo de fichas de producto, que tienen contenido muy similar, mediante la etiqueta <link rel=“canonical” href=“https://www.paginabuena.com/” /> indicamos que toda la consideración debe recaer sobre esta URL, que es la canónica.

  Paginaciones: como hemos indicado en secciones anteriores, es necesario, en el caso de las paginaciones, indicar a los rastreadores cual son las URL anterior y posterior de la serie paginada. Esto se realiza con las etiquetas next y prev.

 

7.4 – Contenido Duplicado

Para facilitar el entendimiento de nuestra web por parte de los motores de búsqueda, y por tanto la indexación de los contenidos, es muy importante que esta no contenga contenido duplicado. Además, esto podría desembocar en canibalizaciones de palabras clave.

Es importante considerar las opciones de fusionar las páginas con contenido similar, o bien hacer uso de las directivas y sugerencias de indexación para optimizar este proceso.

 

7.5 – Auditar Redirecciones

Las redirecciones consumen mucho recursos, además de que pueden dar muchos problemas. Esto sucede cuando se producen redirecciones infinitas, o bien cadenas de redirección muy largas. Estos casos pueden generar problemas en la indexación, aparte de consumir muchos recursos, lo que puede significar un mal uso del Crawl Budget.

 

8 – WPO y Renderizado

La optimización del rendimiento de la web es un factor cada vez más importante a la hora de posicionar una web. En este sentido, son varios los aspectos a tener en cuenta para lograr el mejor funcionamiento de la web. Algunos de estos aspectos que influyen en el WPO los hemos tratado al principio de este artículo, como son la elección del servidor sus características, o la optimización del código y las bases de datos.

 

8.1 – Tiempo de Carga

El tiempo de carga es fundamental para obtener un buen posicionamiento SEO. En primer lugar, porque está muy relacionado con la experiencia de usuario, que es un aspecto que tienen muy en cuenta los buscadores.

Además, por parte de los rastreadores, la optimización del tiempo de carga les facilita el trabajo. Un buen tiempo de carga implica que se consuma menos Crawl Budget en la primera carga de la web, y además garantiza que el rastreador no comienza a examinar una web parcialmente cargada.

 

8.2 – Tamaño de Página

El tamaño de la página que los servidores tienen que cargar también es un factor importante que afecta al WPO. A mayor tamaño, mayor lentitud y dificultad a la hora de procesar la URL. Es por esto que debemos intentar reducir al máximo el tamaño de las páginas de nuestra web.

 

8.2 – Core Web Vitals

Dentro del conjunto de factores relacionados con el WPO, existen un grupo que está teniendo una importancia cada vez mayor, y que se denomina Core Web Vitals. Las factores de este grupo están relacionados con el tiempo que tarda un usuario en poder comenzar a interactuar con la URL solicitada.

Estos factores son los siguientes:

  LCP: Largest Content Panitful. Indica el tiempo que tarda en cargarse en elemento más grande de la ventana gráfica. Esta métrica pretende reflejar la percepción de velocidad que tiene un usuario al cargar una web.

  FID: First Input Display. Esta métrica mide el tiempo que tarda una web en ofrecer alguna posibilidad de interacción con el usuario. A menor FID, mejor experiencia.

  CLS: Cumulative Layout Shift. Se encarga de medir el tiempo de carga acumulado de todos los cambios de diseño. Digamos que mide lo que tarda el proceso de carga de una web en volverse estable.

A continuación podemos ver una imagen con los valores ideales para los Core Web Vital:

Core Web Vitals

 

 

 

9 – Elementos de Rankeo

Una vez que nuestra web es rastreable e indexable, es necesario que los buscadores la consideren apropiada y con interés para ser indexada. Esto se puede conseguir mandando señales de relevancia a las URL’s. Para mandar estas señales, tenemos algunas opciones como las siguientes:

 

9.1 – Enlaces Internos y Externos

Los enlaces son la base de internet, y las señales que se mandan a través de los mismos son muy tenidos en cuenta por parte de los rastreadores. Si establecemos un enlazado interno que dote a la web de una buena arquitectura y que ayude a destacar las URL’s o zonas mas destacadas, estaremos ayudando a su indexación por parte de los buscadores.

Por otro lado, si mandamos señales de autoridad a través de enlaces externos, también estaremos indicando a los buscadores la importancia de una determinada URL, aumentando así sus posibilidades de indexación. Para que los enlaces externos tengan el efecto deseado en lo que se refiere a la indexación de la URL, es muy importante que estos enlaces sean de una determinada calidad, y estén colocados en webs o URL de una determinada autoridad. Lo contrario puede no facilitar la indexación, o incluso llegar a comprometarla, si los buscadores consideran los enlaces como spam.

 

9.2 – Grupos de Contenido

Otra forma de conseguir la indexación de nuestras URL’s, es que estas estén agrupadas en grupos de páginas con una relación semántica determinada. Son los denominados Clusters. Estos clusters, al contener URL’s relacionadas, y que además se enlazan entre sí, harán que estas ganen autoridad como elementos que tratan un tema determinado.

Como ejemplos de clusters, podemos poner las categorías de un blog o tienda online, o las verticales de una web de monetización.

 

10 – Clicabilidad

Para conseguir visibilidad y por tanto clicabilidad, es muy importante que nuestras URL’s aparezcan en lugares destacados de las páginas de búsqueda. Esto significa aparecer en las primeras posiciones de las páginas de resultados de Google, la SERP. Pero no solo. Hoy día, las SERP’s contienen resultados en diferentes formatos para satisfacer la intención de búsqueda de los usuarios.

Por ello, debemos adaptar el formato de nuestro contenido para ser susceptibles de aparecer según la intención de búsqueda del usuario (imágenes, resultados locales, productos, reserva de hoteles…)

Por otro lado, debemos tener en cuenta, a la hora de crear nuestro contenido, que existe la posibilidad de alcanzar la posición 0, o «featured snippet».

Para todo esto, es muy importante el formato que le demos a nuestro contenido.

 

10.1 – Datos Estructurados

Una manera de dar formato a nuestro contenido es a través de los datos estructurados o Rich Snippets. Mediante código, indicamos a los buscadores el tipo de contenido ante el que se encuentra cuando llega a una determinada URL. De esta manera, podrá entender mejor el contenido, y presentarlo en las SEPS de forma estructurada y que facilite su entendimiento por parte de un usuario que tiene una intención de búsqueda determinada.

 

10.2 – Fragmentos Destacados

Como hemos comentado anteriormente, es importante diseñar el contenido que ofrecemos teniendo en cuenta la posición 0 de la SERP. Para ello, ante una búsqueda determinada del usuario, probablemente con intención informacional, debemos preparar el contenido para que este pueda ser mostrado en esta posición 0, sabiendo el formato de respuesta corta o listado que generalmente tienen los elementos en esta posición.

Señalar que para ser candidato a aparece en estar posición 0, es necesario estar previamente entre los primeros resultados de la SERP para esa búsqueda.

5.0
Basado en 7 reseñas.
powered by Google
Amin Kaidi Ruiz
01:19 04 Aug 22
Una experiencia inolvidable, el staff es muy profesional y amable, en ningún momento nos sentimos amateurs! Lo repetiremos una vez volvemos a Alicante ya que somos de Paris. Muchas gracias Akraboats
Delia Garcia
15:54 14 Apr 21
Estoy muy ilusionada con el proyecto que Luis está convirtiendo en web/blog. No sólo posee amplios conocimientos de lo suyo (que no entiendo nada de nada) es que sabe explicarlo todo para que las profanas de la informática nos enteremos. Su disposición y ayuda a encontrar la mejor forma de expresar mi idea es totalmente profesional y, a la vez, muy cercano. Me está encantando trabajar con él. Totalmente recomendable!!!!! Ojalá más informáticos como Luis!!! 😎🤟🏽
Alberto de la Cruz
14:57 14 Apr 21
Profesional como la copa de un pino. Ha respondido con atención, resolución y experiencia en todos los proyectos en los que hemos colaborado. Si buscas un experto en SEO que posicione tu empresa o marca personal, ese es Luis.
Rocio Hernandez Cruz
19:46 24 Mar 21
Luis es un excelente profesional. He tenido la oportunidad de colaborar con él en varios proyectos y siempre se han conseguido muy buenos resultados. Si estás buscando alguien que te ayude con el SEO, sin duda, te lo recomiendo.
Lorenzo Guerrero
16:32 24 Mar 21
Hola familia!Que tal?Pues quiero decir que nosotros desde hace 2 años contratamos los servicios de Luis como SEO y para posicionamiento web y ha sido todo un éxito, atento, implicado y ha hecho que nuestra empresa esté más visible en google, aún siendo muy complicado en los días que corren.Es todo un acierto que Luis esté ayudándonos.Lo volvería a contratar 💯.Gracias Luis García Estudio.
Inma Garcia Rosino
18:39 12 Feb 21
Buscaba algo concreto y Luis me ayudó a conseguirlo. Muy contenta con el servicio y el trato. Muy recomendable.
ANA V
18:25 11 Feb 21
Muy profesional y buena relación calidad/precio. Contraté sus servicios porque necesitábamos una nueva página web para nuestro proyecto y también mejorar el posicionamiento. Y la verdad es que estamos muy contentas con el resultado y con la atención recibida. Lo recomiendo!
Amin Kaidi Ruiz
12:41 10 Feb 21
Carmen Victoria Martín Ruiz
11:42 10 Feb 21
Excelente trabajo y profesionalidad. Muy cercano con el cliente y súper satisfecha con los resultados de mi tienda online!
Más reseñas
Luis García

Luis García

Consultor SEO

Ingeniero Técnico en Informática. Máster en Marketing Digital con especialidad en SEO. Diseño y gestión de campañas de Google Ads. Certificado en Google Analytics y Ads. Colaboro con empresas y profesionales para impulsar la visibilidad y el rendimiento de sus proyectos web. Gestión de e-commerce. Consultor SEO freelance.

VER MÁS

Consulta el Blog de SEO y Marketing Digital

Evitar el Indexado de Parámetros en un Ecommerce

Evitar el Indexado de Parámetros en un Ecommerce

Introducción En el ámbito del SEO técnico aplicado a ecommerce, uno de los retos recurrentes es el control de la indexación de URLs con parámetros. Los sitios web de comercio electrónico generan de forma natural grandes volúmenes de URLs parametrizadas debido a sus...

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Elementos Técnicos en el SEO: CDN, Servidor, Plesk, VPN

Cuando se habla de SEO, lo primero que suele venir a la mente son contenidos optimizados, estrategias de linkbuilding y keywords. Sin embargo, una arquitectura técnica sólida es la base sobre la que se construye un buen posicionamiento web. Desde la velocidad de carga...

Penalizaciones SEO

Penalizaciones SEO

Introducción En el entorno del posicionamiento web, las penalizaciones SEO representan uno de los mayores riesgos para la visibilidad orgánica de un sitio. Estas sanciones pueden provocar una pérdida significativa de tráfico y posicionamiento en buscadores,...

×