9 Problemas técnicos de SEO que más cometen los webmasters

9 Problemas técnicos de SEO que más cometen los webmasters

15 Jul 2020 in

Analizar webs y efectuar análisis SEO es una de las labores que más realizo todos los años.

Por ejemplo, en el dos mil diecinueve contabilicé más de 90 auditorias de páginas webs. Esto es una media de algo más de seis análisis de páginas a nivel de posicionamiento en buscadores cada mes.

Aunque no parezca mucho, te aseguro que lleva trabajo hacerlo bien.

Podría decir que:

una auditoría SEO es conocer las fortalezas y debilidades de un sitio web de cara a los buscadores web como Google o Bing y actuar sobre ellas para prosperar el ranking.

En ciertos casos, son páginas webs pequeñas con unas pocas urls, mas en otros, pueden ser tiendas en línea con miles de urls para efectuar un análisis técnico de posicionamiento web en buscadores completo.

Y en alguna ocasión, son páginas webs pirateadas , con infecciones o con que hay que solucionar, y que detectar el inconveniente a veces no es tan rápido.

A raiz de este trabajo, veo problemas de SEO comunes en webs administradas por administradores web con escasos conocimientos técnicos a nivel de posicionamiento web.

Por eso, hoy veremos los problemas técnicos más habituales de SEO que se acostumbran a cometer y cómo solventarlos.

Por supuesto, cuando son solucionados, el impacto que generan en los buscadores es mayor y genera una mejora del tráfico desde buscadores.

Vamos a por ellos !

Back to top

1) 1. Problemas con el rediseño de la web

En muchos casos que analizo, compruebo como después de un rediseño de la página web, esta ha tenido una caida del tráfico desde buscadores.

Unas veces cae alrededor de un 80 por ciento y en otras el tráfico cae un diez por cien o bien 20 por ciento .

Los nuevos diseños de páginas webs son un arma de doble filo a nivel de posicionamiento SEO.

Si no se hace bien, se puede producir un “derrumbe” del tráfico y tardar meses en recuperarse.

Algo como esto…

Otras veces ocurre que al hacer un diseño web nuevo, se acostumbran a crear urls nuevas con la meta de optimizar mejor las viejas urls con el propósito de que esto asista a progresar el ranking actual.

Sin embargo, se suele olvidar efectuar las pertinentes redirecciones 301 de las urls viejas a las nuevas, y por ende, se pierde gran cantidad de – link juice.

En estos casos, el ranking de la página web cae y con esto, gran cantidad del número de visitas.

También puede caer el tráfico desde buscadores cuando se suprime mucho texto de páginas primordiales o bien categorías de temas o productos debido a que el nuevo diseño web es pero minimalista.

1.1) Cómo detectarlos

Se puede revisar sencillamente a través de Google Analytics.

Si coincide la data en la que se rediseñó la web y la caida del tráfico orgánico, vamos a saber que hemos sufrido este problema de SEO.

1.2) Cómo corregirlos

En muchos casos que he analizado, acostumbran a haber borrado las urls antíguas, por ende, no se pueden crear los redireccionamientos 301.

En otros casos donde se ha utilizado un Content Management System como wordpress, en ocasiones, las han dejado activas mas no visibles, por lo tanto, implementando un simple plugins de redireccionamiento, podemos regresar a obtener el tráfico desde buscadores que se tenía en unas semanas.

Se puede usar un plugin como este:

Con este complemento puedes crear redicrecciones trescientos uno fácilmente.

En el caso de que la caida del tráfico pudiera ser porque se ha eliminado texto de las páginas primordiales o bien categorías, y la relacion texto HTML está muy desiquilibrada, debemos estudiar la opción de de qué forma volver a colocar texto relevante en ellas.

Vamos a conocer un tanto más sobre esto:

  • Ratio de Texto: es el porcentaje de texto plano que hay en una url concretamente.
  • Ratio de HTML: es el porcentaje de código CSS, imágenes, etiquetas…

¿Cual es el porcentaje ideal entre texto y código de una web?

Se recomienda que este ratio sea un 30/70, esto es, un 30 por cien del contenido de la página debe ser texto plano y el resto complementos como imágenes, multimedia, script, CSS.

¿Puede penalizar google tener un ratio texto HTML bajo?

Puede hacerlo de forma perfecta en forma de pérdida de situaciones orgánicas.

Yo considero que es una parte importante que hay que mirar en una auditoría posicionamiento web.

Recuerda que para google es más fácil rastrear texto que imágenes (aunque cada vez avance más en este aspecto).

Además, aun actualmente mediante , google se fundamenta en el rastreo de las palabras clave que ha indicado el usuario mediante la voz.

Back to top

2) 2. Problemas de optimización web móvil 

Algunos estudios lanzan que casi un veinticuatro por cien de las páginas webs existentes no son compatibles con dispositivos móviles.

Esto puede ser un inconveniente o bien una ventaja competitiva, según se mire 🙂

Google ha declarado oficialmente que en 2018 primero clasificará cada página en su versión móvil y después en la versión de computador.

Esto indica que – móvil primero.

No confundir “web responsive” con una “diseño web móvil“, ya que hay diferencias como vemos en la próxima imagen.

Aquí van ciertas sugerencias sobre el diseño web móvil:

  • No colocar links demasiado juntos.
  • Si el texto es demasiado pequeño, hay un noventa y cinco por cien de posibilidades de incompatibilidad con dispositivos móviles.
  • Si el texto del contenido no se ajusta a la ventana, hay un 55 por ciento de probabilidades de no pasar el Test.
  • Es una mala idea bloquear ficheros CSS y JS en el robots.txt .
  • Se crean sitios webs más ligeros y rápidos.

2.1) Cómo detectarlos

Para conocer un sitio es compatible con los dispositivos móviles utiliza:

  • PageSpeed ​​Insights
  • Test mobile friendly
  • GTMetrix
  • Pingdom

2.2) Cómo corregirlos

Las propias herramientas te dan información sobre qué recursos son los que debes optimar.

Hay que procurar tener la mejor puntuación posible en ellas. Por encima de un 80 por cien mínimo vamos a estar en el buen camino.

En caso de no saber de qué forma hacerlo, se tendrá que contactar con un desarrollador web.

En caso de poder actualizar el PHP de la web a un PHP 7, se debe implementar esta alternativa ya que puede prosperar la velocidad de carga de la página web.

Back to top

3) 3. Inconvenientes con la experiencia de usuario (UX) móvil 

Ya hemos comentado que dentro del proceso de analizar una web, el usuario móvil y la experiencia de este navegando es uno de los factores de clasificación más esenciales hoy en día.

A veces puede acontecer que la versión móvil de un sitio es algo diferente a la versión de ordenador y esto también influye en la experiencia del usuario.

Google ha aceptado que prefiere que las 2 versiones de una misma web sean iguales.

También ha declarado que probablemente los webmasters vean un aumento del rastreo del bot de Google para móvil. 

3.1) Cómo detectarlos

  1. Comienza por emplear la herramienta que se ha citado en el punto anterior: Test mobile friendly.
  2. Comprobar en search console si el bot está rastreando todas y cada una de las páginas correctamente. Ir a “errores de rastreo” > “smartphone”.
  3. Comprobar que porcentaje de tráfico orgánico tiene la página desde móviles mediante google analytics.

3.2) Cómo corregirlos

Sabiendo que ahora Google da prioridad a la versión móvil en el momento de clasificar, podemos decantarse por varias actuaciones:

  1. Plantearnos cambiar de plantilla a una que cumpla con los requisitos y sea una .
  2. Verificar el diseño tanto en iPhone como en Android.
  3. Implementar una de estas .
  4. Asegurar de que se puede hacer click de manera fácil en cualquier elemento clicable de la página.
  5. Evitar colocar elementos clicables demasiado cerca entre si. Deja espacio suficiente entre ellos. Google avisa sobre esto.
  6. Asegurarse de que el usuario puede encontrar lo que quiere fácil.
  7. Optimizar imágenes, y codificar HTML y minificar CSS a fin de que la página web cargue en dos seg. o bien menos.
  8. Comprimir la página web en el servidor .gzip, mejora la velocidad y así la experiencia de usuario.

Un buen plugin que hace esta tarea verdaderamente bien, si se usa wordpress es este:

Otro punto a analizar son los pop ups que se muestran en los móviles.

He comprobado como alguna web que he analizado, ha sido penalizada por mostrar intersticiales (pop ups) de forma violenta.

Para mostrar apropiadamente las ventanas emergentes en la versión móvil hay que seguir las directrices del buscador.

Back to top

4) 4. Inconvenientes con la estructura de la página web 

Crear contenido para atraer tráfico viene en ocasiones con un problema agregado:

una mala estructuración de los contenidos trae inconvenientes de posicionamiento

Una mala estructura de la web o bien categorización , afecta tanto a webs pequeñas como a páginas webs grandes.

Esto lo he comprobado en muchas de las auditorías técnicas que he efectuado.

Se debe dedicar un tiempo a crear contenido, pero asimismo a ordenarlo.

Considera ésta opción como si fuera un arma secreta que no se ve.

Conforme aumenta el tamaño de la página web es más esencial tener bien categorizado el contenido.

Por ejemplo,

Si se crea contenido nuevo semanalmente en el weblog, hay que procurar evitar inconvenientes de canibalización entre artículos.

También suele suceder, que en tiendas on line algunos artículos del weblog le quiten el ranking a páginas de productos, siendo esto un inconveniente de cara a las ventas del ecommerce.

Hay que tener cuidado con la elección de palabras clave cuando se trabaja un weblog y una tienda on-line en el mismo site.

La canibalización de palabras clave ocurre cuando 2 o bien mas urls de una web, (por poner un ejemplo ), se clasifican involuntariamente por exactamente la misma palabra clave.

Doy un pequeño detalle…

No siempre y en toda circunstancia es malo tener 2 urls posicionadas en la página 1 por una misma palabra clave.

Hay que tomar en consideración que Google muestra las páginas en las SERPs conforme la intención del usuario, por lo tanto, se puede dar el caso de que se muestren dos páginas de un mismo sitio web para un término de búsqueda.

4.1) Cómo detectarlos

Para detectar si tenemos canibalización de palabras clave podemos emplear un comando de búsqueda tan simple como este:

  • Busca en comillas tu “keyword”
  • site:dominio.com “keyword”

Ejemplo,

Si ves más de una url tuya en las Search Engines Ranking Positions quiere decir que tendrás que comprobar esas páginas por el hecho de que puede que una le reste valor a otra.

Si tienes dos páginas afines que clasifican por una misma palabra clave, posiblemente debas “unirlas” como vamos a ver a continuación.

4.2) Cómo corregirlos

Para crear una buena arquitectura de la página web se debe establecer previamente de qué forma será esa estructura jerárquica.

Google utiliza entidades para buscar el contexto de un término de búsqueda, y cuanto más contexto se utilice, mejor.

Las entidades son la razón por la cual es difícil clasificar para una palabra clave con una sola pieza de contenido, y ahora comprenderás por qué razón con una sola pieza o artículo sobre una palabra clave, es muy complicado clasificarse actualmente.

Las entidades son las que envían información a google sobre la calidad y cantidad de una pieza de contenido, y para esto debemos clasificarlas.

Repito…

Aquí la clave es: a mayor contexto, mejor información.

Y para organizar un blog o una tienda en línea se puede hacer de dos formas:

  1. Por temas.
  2. Por categorías.

Te vas a preguntar, ¿cual es la diferencia y cual es la mejor opción?

Por categorías es como en general se estructura un weblog, sin embargo, la estructura por temas es una forma mejor de organizar el contenido.

Al trabajar la estructura web con entidades o bien temas, debemos pensar como se organiza una biblioteca.

Esto sería más o menos cómo google comprende la estructura web por categorias:

Y esto es cómo entiende google una web organizada por temas:

La segunda opción indica que se trabaja un tema de contenido en mayor profundidad.

He aquí un ejemplo algo más práctico:

Para asistir a Google a comprender las entidades por las que quiere clasificar, debemos meditar en concepto de jerarquía y después crear contenido que coincida con esa jerarquía .

He creado un artículo donde explico esta nueva forma de organizar el contenido de una web o blog:

Problema de canibalización

Cuando verificamos que hay una canibalización de páginas y 2 o bien más páginas luchan por posicionarse por una misma palabra clave o “intención de búsqueda”, entonces debemos afrontar una de las próximas soluciones:

  • Crear una sola página usando el contenido de las dos. A esta página “más larga” se pueden redirigir las dos viejas pasando de esta forma la fuerza a la publicación nueva.
  • Poner la etiqueta “noindex” a una de ellas y que clasifique solo una de las 2 páginas.
  • Des-optimar una de las páginas cambiando título y palabras clave para quitar la canibalización.
  • Redireccionamiento 301 de una a otra y que clasifique mejor una de ellas.
  • Indicar una url como canónica y que google comprenda cual es la página “buena”.

4.3) 5. Inconvenientes de indexación

Dentro de la auditoria de SEO técnico este punto es de vital importancia tanto si la página web es pequeña tal y como si la página web es grande.

Hacer perder el tiempo a los bots de google no es una buena idea.

Tanto el rastreo como la siguiente indexación y posicionamiento orgánico después de una página, dependen en gran medida de la capacidad de google para rastrear la página.

En muchas auditorias que hago, este es uno de los primordiales problemas que observo  y que llevan consigo muchos problemas de posicionamiento orgánico de las webs.

Facilitar el rastreo a los bots y conseguir que estos se centren en las páginas importantes para nuestra web, es una de las habilidades de SEO que más me agradan.

Te puedo asegurar como algunas webs han alterado como de la noche al día, corrigiendo solo este punto tan trágico en apenas dos semanas.

4.4) Cómo detectar los inconvenientes de rastreo

El mejor sitio para detectar problemas de rastreo es en Search console.

Dentro del apartado – rastreo > sitemaps

aquí podemos revisar si hay mucha diferencia entre el número de urls enviadas a google y las que realmente se indexan.

Lo segundo que debemos observar dentro de la propia herramienta es en el apartado – índice de google > estado de indexación

y revisar si hay una caida esencial en el número total de páginas indizadas, lo cual señalaría que tenemos un inconveniente que resolver.

Puedes comprobar las 4 causas principales por las cuales Google puede quitar páginas de las SERPS. En el vídeo lo explico:

Herramienta de para detectar el rastreo web:

4.5) Cómo corregirlos

Si se está utilizando wordpress y uno de sus plugins de SEO como puede ser Yoast, deberemos repasar la configuración de este plugin.

Si no se está utilizando esta alternativa, debemos revisar el fichero robots.txt por si se está bloqueando algún recurso importante que impide el adecuado rastreo e indexación de la página.

Google ha declarado que no se deben bloquear los ficheros CSS y JS en el robots.txt.

Si se emplea otro CMS o una web a la medida y comprobamos que se indexan páginas no esenciales de la página web, se debe poner la etiqueta “noindex” en ellas.

A medida que una web crece, este punto es más crucial a fin de que la página siga clasificándose apropiadamente.

4.6) 6. Problemas de contenido delgado

El Thin content o contenido delgado es otro de los inconvenientes más comunes, sobre todo en tiendas on line, aunque en weblogs asimismo se suele dar el caso.

Tener contenido delgado quita potencial al resto del dominio

Las páginas con contenido pobre suelen afectar al resto de páginas que se clasifican bien, por ende, es un problema técnico que se debe afrontar y solventar.

4.7) Cómo detectarlos

Si los usuarios entran en una página y se van rapidísimo, es una mala señal.

Puede que el contenido de esa página no sea completísimo o bien que falte.

O quizá, no se da un información relevante, y entonces los usuarios se van a otro sitio web a buscarla.

Podemos advertirlo muy simple a través de google analytics, siguiendo estos pasos:

  1. Ir a la pestañita de comportamiento
  2. Contenido del sitio
  3. Páginas de destino
  4. selecciona los últimos 3 meses y “mostrar doscientos cincuenta filas”

Se observan las urls que no han tenido “sesiones” o bien son muy escasas en este intervalo de tiempo.

4.8) Cómo corregirlos

Cuando hemos detectado cuales son las páginas que apenas consiguen impresiones o con un alto porcentaje de rebote, entonces podemos decantarse por una de las siguientes soluciones:

  • Incrementar mayor cantidad de contenido a esas páginas (texto, imágenes, vídeo, etc).
  • Poner etiqueta “noindex” a las páginas que sean de poco valor real para clasificar. De esta forma, se acrecentará el potencial de las páginas principales.

4.9) 7. Inconvenientes con los enlaces internos

No tener enlaces internos que pasen autoridad de una página de la web a otra, es encontrarse con un posible inconveniente de indexación + no aprovechar esta técnica de SEO para hacer crecer el tráfico orgánico.

Los enlaces internos son de suma importancia en nuestros días para los buscadores, y mi consejo es que realices esta labor en cada una de las urls o bien páginas de tu sitio web.

Esta técnica de posicionamiento web en buscadores te ayudará a progresar el ranking de tus palabras clave.

Algunas webs pequeñas no emplean los vínculos internos para transmitir equidad de una página a otra, perdiendo una parte esencial de su potencial orgánico.

Vincular artículos entre si o hacerlo desde el weblog a la tienda virtual aporta un valor extra a google y al ranking de las palabras clave.

4.10) Cómo detectarlos

Para webs pequeñas se puede hacer sencillamente de forma manual visitando cada una de las páginas y verificando si existen vínculos internos entre las páginas.

Para webs más grandes, se necesitarán herramientas más precisas como:

4.11) Cómo corregirlos

Colocar vínculos internos desde publicaciones del weblog hacia las páginas principales que se desean clasificar es una gran estrategia de SEO 🙂

Igual se puede hacer para tiendas virtuales.

Además hay que aprovechar los vínculos internos para poner las palabras clave en los textos de anclaje del hipervínculo.

La clave está en usar diferentes textos de anclaje de forma natural.

Esto transmitirá aún más fuerza a la página de destino.

Los enlaces siguen siendo uno de los que Google tiene en cuenta para dar autoridad y confianza a un sitio web.

Google otorga una puntuación diferente por cada enlaces siguiendo sus criterios.

Por ejemplo,

la puntuación que le puede dar a un enlace que apunte a nosotros desde un directorio gratuito será menor que la puntuación que tengamos desde una web que trate exactamente la misma temática que nosotros.

Aún así, siempre y en toda circunstancia se debe procurar establecer una frecuencia en el tiempo para hacer la obtención de enlaces externos.

Ten en cuenta que, siempre y en todo momento es más interesante conseguir links desde otros sitios web de la misma categoría o nicho que el nuestro, a enlaces que no tengan nada que ver con nuestra temática.

Pero esto no siempre y en todo momento podemos controlarlo.

Es realmente posible que tengas links de páginas que no tengan nada que ver con tu campo, aun páginas nuevas o con muy escasa autoridad, lo que tampoco beneficia.

Ten por seguro, que tener 30 enlaces de sitios webs diferentes apuntando a tus páginas principales, tu clasificación orgánica va a aumentar.

Como para google los enlaces siguen siendo esenciales, debemos lograrlos.

4.13) Cómo detectarlos

Para saber si tenemos backlinks o no podemos usar las siguientes herramientas:

  • Search console
  • Open site explorer
  • Ahrefs
  • Monitor backlinks
  • Linkstant
  • Linkody

4.14) Cómo corregirlos

Podemos emplear estas herramientas para saber la calidad de los links y asimismo para conocer si nos falta potencial de link para poder clasificar mejor nuestras palabras clave.

Es importante tener buenos links externos que nos den autoridad y fuerza, mas debemos tener links de baja calidad para otorgar a google una “naturalidad” en el sistema de enlazado.

La clave aquí está en conseguir que ese “menú de enlaces” se vea lo más natural posible.

Otro punto en la auditoria de posicionamiento web técnico estará en la .

Back to top

5) 9. Inconvenientes de marcado de datos estructurados

Si te digo la verdad, la mayor parte de páginas webs auditadas carecen de marcado de datos.

Los webmasters no acostumbran a usar este sistema de google para dar a entender mucho mejor al buscador de qué se trata cada página.

Dentro de la optimización SEO, el marcado de datos puede dar un empujón al ranking de las palabras clave, puesto que ayuda al buscador a comprender mucho mejor de qué va cada una de las páginas de un sitio web.

Según google el marcado de schema ayuda a clasificar una web

5.1) Cómo detectarlos

Usa Search console para detectar si hay errores de marcado de datos o bien carece la página de ellos. Navega mediante search console:

  1. Apariencia en el buscador
  2. Datos estructurados

Haz una prueba usando la

5.2) Cómo corregirlos

Para corregir este problema y de este modo poder hacer comprender mejor a google el tipo de contenido que hay en todos y cada página, utiliza la misma herramienta de detección de fallos para saber donde está el inconveniente del código y poder solventarlo.

Si empleas wordpress puedes usar un complemento para hacer esta tarea más fácil como este :

  • Plugin All in One Schema . Con él obtendrás los Rich Snipeet o un breve resumen de la página en los resultados de la búsqueda de Google, Yahoo o bien Bing.

Si empleas otro CMS diferente es posible que precises ayuda de un programador para implementarlo. Solo debes conocer que Google prefiere los siguientes formatos:

  • JSON-LD (recomendado)
  • Microdata
  • RDFa

Creo que implementar este punto si puede ser una ventaja competitiva, ya que aun hay muchas páginas webs que carecen de este complemento.

Bien, pues yo ya he comentado todo lo que tenía previsto en el presente artículo.

Estos datos forman parte de mi trabajo y de lo que hago cada día.

Muchas veces no se entiende de qué forma funciona esto del “SEO“, en tanto que tiene algunas ramas un tanto más técnicas como estas que acabamos de ver y que afectan de forma clara al posicionamiento de una web.

El SEO técnico es uno de los primeros puntos que se analizan cuando hay que auditar una página.

Y la experiencia me afirma que aquí están la mayor parte de los problemas que actualmente limitan a una web avanzar en las situaciones de los buscadores.

Si crees que necesitas ayuda para posicionar tu web, usa este formulario para contactar conmigo.

SEO Mánager en citiface.com

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO