9 Problemas técnicos de posicionamiento web que más cometen los webmasters

9 Problemas técnicos de posicionamiento web que más cometen los webmasters

15 Jul 2020 in

Analizar webs y realizar análisis SEO es una de las labores que más llevo a cabo todos los años.

Por ejemplo, en el dos mil diecinueve contabilicé más de noventa auditorias de páginas webs. Esto es una media de algo más de seis análisis de páginas a nivel de posicionamiento web cada mes.

Aunque no parezca mucho, te aseguro que lleva trabajo hacerlo bien.

Podría decir que:

una auditoría SEO es conocer las fortalezas y debilidades de un sitio web de cara a los buscadores como Google o Bing y actuar sobre ellas para prosperar el ranking.

En ciertos casos, son páginas webs pequeñas con unas pocas urls, mas en otros, pueden ser tiendas online con miles y miles de urls para realizar un análisis técnico de posicionamiento web en buscadores completo.

Y en alguna ocasión, son páginas webs pirateadas , con infecciones o bien con que hay que solucionar, y que detectar el problema en ocasiones no es tan veloz.

A raiz de este trabajo, veo problemas de SEO comunes en webs administradas por webmasters con pocos conocimientos técnicos a nivel de posicionamiento SEO.

Por eso, hoy veremos los problemas técnicos más comunes de posicionamiento SEO que se acostumbran a cometer y de qué forma solventarlos.

Por supuesto, cuando son solucionados, el impacto que generan en los buscadores es mayor y genera una mejora del tráfico desde buscadores.

Vamos a por ellos !

Back to top

1) 1. Inconvenientes con el rediseño de la web

En muchos casos que analizo, verifico como después de un rediseño de la página web, esta ha tenido una caida del tráfico desde buscadores.

Unas veces cae alrededor de un 80 por ciento y en otras el tráfico cae un diez por cien o bien 20 por ciento .

Los nuevos diseños de páginas webs son un arma de doble filo a nivel de posicionamiento web en buscadores.

Si no se hace bien, se puede generar un “derrumbe” del tráfico y tardar meses en recobrarse.

Algo como esto…

Otras veces ocurre que al hacer un diseño web nuevo, se acostumbran a crear urls nuevas con el propósito de optimizar mejor las viejas urls con la meta de que esto asista a prosperar el ranking actual.

Sin embargo, se acostumbra a olvidar realizar las pertinentes redirecciones 301 de las urls viejas a las nuevas, y en consecuencia, se pierde gran cantidad de – enlace juice.

En estos casos, el ranking de la web cae y con esto, gran cantidad del número de visitas.

También puede caer el tráfico orgánico cuando se elimina mucho texto de páginas principales o categorías de temas o bien productos debido a que el nuevo diseño web es pero minimalista.

1.1) Cómo detectarlos

Se puede comprobar de forma fácil mediante Google Analytics.

Si coincide la fecha en la que se rediseñó la web y la caida del tráfico orgánico, vamos a saber que hemos sufrido este problema de SEO.

1.2) Cómo corregirlos

En muchos casos que he analizado, suelen haber borrado las urls antíguas, en consecuencia, no se pueden crear los redireccionamientos 301.

En otros casos donde se ha utilizado un CMS como wordpress, a veces, las han dejado activas mas no perceptibles, por tanto, incorporando un simple complementos de redireccionamiento, podemos volver a obtener el tráfico desde buscadores que se tenía en unas semanas.

Se puede usar un complemento como este:

Con este complemento puedes crear redicrecciones trescientos uno muy fácilmente.

En el en el caso de que la caida del tráfico pudiese ser porque se ha eliminado texto de las páginas principales o categorías, y la relacion texto HTML está muy desiquilibrada, debemos estudiar la opción de de qué manera volver a poner texto relevante en ellas.

Vamos a conocer un poco más sobre esto:

  • Ratio de Texto: es el porcentaje de texto plano que hay en una url específicamente.
  • Ratio de HTML: es el porcentaje de código CSS, imágenes, etiquetas…

¿Cual es el porcentaje ideal entre texto y código de una página web?

Se recomienda que este ratio sea un 30/70, es decir, un treinta por cien del contenido de la página debe ser texto plano y el resto complementos como imágenes, multimedia, script, CSS.

¿Puede penalizar google tener un ratio texto HTML bajo?

Puede hacerlo perfectamente en forma de pérdida de situaciones orgánicas.

Yo considero que es una parte esencial que hay que mirar en una auditoría posicionamiento SEO.

Recuerda que para google es más fácil rastrear texto que imágenes (si bien cada vez avance más en este aspecto).

Además, aun en la actualidad mediante , google se basa en el rastreo de las palabras clave que ha indicado el usuario a través de la voz.

Back to top

2) 2. Inconvenientes de optimización web móvil 

Algunos estudios arrojan que casi un veinticuatro por ciento de las páginas webs existentes no son compatibles con dispositivos móviles.

Esto puede ser un inconveniente o bien una ventaja competitiva, conforme se mire 🙂

Google ha declarado oficialmente que en 2018 primero clasificará cada página web en su versión móvil y después en la versión de PC.

Esto señala que – móvil primero.

No confundir “web responsive” con una “diseño web móvil“, ya que hay diferencias como vemos en la próxima imagen.

Aquí van ciertas sugerencias sobre el diseño web móvil:

  • No poner enlaces demasiado juntos.
  • Si el texto es demasiado pequeño, hay un 95 por ciento de posibilidades de incompatibilidad con dispositivos móviles.
  • Si el texto del contenido no se ajusta a la ventana, hay un cincuenta y cinco por cien de probabilidades de no pasar el Test.
  • Es una mala idea bloquear archivos CSS y JS en el robots.txt .
  • Se crean sitios webs más ligeros y veloces.

2.1) Cómo detectarlos

Para conocer un sitio web es compatible con los dispositivos móviles utiliza:

  • PageSpeed ​​Insights
  • Test mobile friendly
  • GTMetrix
  • Pingdom

2.2) Cómo corregirlos

Las propias herramientas te dan información sobre qué recursos son los que debes optimar.

Hay que procurar tener la mejor puntuación posible en ellas. Sobre un 80 por cien mínimo vamos a estar en el buen camino.

En caso de no saber cómo hacerlo, se deberá contactar con un desarrollador web.

En caso de poder actualizar el PHP de la página web a un PHP 7, se debe implementar esta alternativa ya que puede prosperar la velocidad de carga de la web.

Back to top

3) 3. Problemas con la experiencia de usuario (UX) móvil 

Ya hemos comentado que dentro del proceso de analizar una web, el usuario móvil y la experiencia de este navegando es uno de los factores de clasificación más importantes hoy día.

A veces puede ocurrir que la versión móvil de un sitio web es algo diferente a la versión de computador y esto también influye en la experiencia del usuario.

Google ha admitido que prefiere que las dos versiones de una misma web sean iguales.

También ha declarado que probablemente los webmasters vean un aumento del rastreo del bot de Google para móvil. 

3.1) Cómo detectarlos

  1. Comienza por emplear la herramienta que se ha citado en el punto anterior: Test mobile friendly.
  2. Comprobar en search console si el bot está rastreando todas y cada una de las páginas apropiadamente. Ir a “errores de rastreo” > “smartphone”.
  3. Comprobar que porcentaje de tráfico orgánico tiene la página desde móviles a través de google analytics.

3.2) Cómo corregirlos

Sabiendo que ahora Google da prioridad a la versión móvil a la hora de clasificar, podemos optar por múltiples actuaciones:

  1. Plantearnos cambiar de plantilla a una que cumpla con los requisitos y sea una .
  2. Verificar el diseño tanto en iPhone como en Android.
  3. Implementar una de estas .
  4. Asegurar de que se puede hacer click de forma fácil en cualquier elemento clicable de la página.
  5. Evitar poner elementos clicables demasiado cerca entre si. Deja espacio suficiente entre ellos. Google informa sobre esto.
  6. Asegurarse de que el usuario puede hallar lo que quiere simple.
  7. Optimizar imágenes, y codificar HTML y minificar CSS a fin de que la página web cargue en 2 seg. o menos.
  8. Comprimir la página web en el servidor .gzip, mejora la velocidad y así la experiencia de usuario.

Un buen complemento que hace esta labor verdaderamente bien, si se usa wordpress es este:

Otro punto a examinar son los pop ups que se muestran en los móviles.

He comprobado como alguna página web que he analizado, ha sido penalizada por mostrar intersticiales (pop ups) de forma beligerante.

Para mostrar correctamente las ventanas emergentes en la versión móvil hay que proseguir las directrices del buscador.

Back to top

4) 4. Inconvenientes con la estructura de la web 

Crear contenido para atraer tráfico viene en ocasiones con un inconveniente agregado:

una mala estructuración de los contenidos trae problemas de posicionamiento

Una mala estructura de la página web o clasificación , afecta tanto a webs pequeñas como a páginas webs grandes.

Esto lo he comprobado en muchas de las auditorías técnicas que he efectuado.

Se debe dedicar un tiempo a crear contenido, pero también a ordenarlo.

Considera ésta opción como si fuera un arma secreta que no se ve.

Conforme aumenta el tamaño de la página web es más importante tener bien categorizado el contenido.

Por ejemplo,

Si se crea contenido nuevo semana a semana en el blog, hay que procurar evitar problemas de canibalización entre artículos.

También suele ocurrir, que en tiendas virtuales algunos artículos del blog le quiten el ranking a páginas de productos, siendo esto un problema de cara a las ventas del ecommerce.

Hay que tener cuidado con la elección de palabras clave cuando se trabaja un weblog y una tienda online dentro del mismo site.

La canibalización de palabras clave ocurre cuando dos o mas urls de una web, (por poner un ejemplo ), se clasifican involuntariamente por exactamente la misma palabra clave.

Doy un pequeño detalle…

No siempre y en todo momento es malo tener 2 urls posicionadas en la página 1 por una misma keyword.

Hay que tener en consideración que Google muestra las páginas en las Search Engines Ranking Positions conforme la pretensión del usuario, por lo tanto, se puede dar el en el caso de que se muestren 2 páginas de un mismo sitio web para un término de busca.

4.1) Cómo detectarlos

Para advertir si tenemos canibalización de palabras clave podemos utilizar un comando de busca tan simple como este:

  • Busca en comillas tu “keyword”
  • site:dominio.com “keyword”

Ejemplo,

Si ves más de una url tuya en las Search Engines Ranking Positions desea decir que tendrás que revisar esas páginas por el hecho de que puede que una le reste valor a otra.

Si tienes 2 páginas similares que clasifican por una misma palabra clave, es posible que debas “unirlas” como veremos ahora.

4.2) Cómo corregirlos

Para crear una buena arquitectura de la página web se debe establecer previamente de qué forma va a ser esa estructura jerárquica.

Google utiliza entidades para buscar el contexto de un término de búsqueda, y cuanto más contexto se utilice, mejor.

Las entidades son la razón por la cual es difícil clasificar para una palabra clave con una sola pieza de contenido, y ahora comprenderás por qué con una sola pieza o artículo sobre una palabra clave, es muy complicado clasificarse en la actualidad.

Las entidades son las que envían información a google sobre la calidad y cantidad de una pieza de contenido, y para esto debemos clasificarlas.

Repito…

Aquí la clave es: a mayor contexto, mejor información.

Y para organizar un blog o una tienda en línea se puede hacer de dos formas:

  1. Por temas.
  2. Por categorías.

Te preguntarás, ¿como es la diferencia y cual es la opción mejor?

Por categorías es como en general se estructura un weblog, no obstante, la estructura por temas es una forma mejor de organizar el contenido.

Al trabajar la estructura web con entidades o bien temas, debemos pensar como se organiza una biblioteca.

Esto sería aproximadamente cómo google entiende la estructura web por categorias:

Y esto es de qué forma entiende google una web organizada por temas:

La segunda opción señala que se trabaja un tema de contenido en mayor profundidad.

He aquí un caso algo más práctico:

Para ayudar a Google a comprender las entidades por las que desea clasificar, debemos pensar en concepto de jerarquía y luego crear contenido que coincida con esa jerarquía .

He creado un artículo donde explico esta nueva manera de organizar el contenido de una web o bien blog:

Problema de canibalización

Cuando comprobamos que existe una canibalización de páginas y dos o bien más páginas luchan por posicionarse por una misma palabra clave o bien “intención de búsqueda”, entonces debemos afrontar una de las siguientes soluciones:

  • Crear una sola página usando el contenido de las dos. A esta página “más larga” se pueden redirigir las dos viejas pasando de este modo la fuerza a la publicación nueva.
  • Poner la etiqueta “noindex” a una de ellas y que clasifique solo una de las dos páginas.
  • Des-optimizar una de las páginas mudando título y palabras clave para eliminar la canibalización.
  • Redireccionamiento 301 de una a otra y que clasifique mejor una de ellas.
  • Indicar una url como canónica y que google comprenda como es la página “buena”.

4.3) 5. Problemas de indexación

Dentro de la auditoria de posicionamiento web técnico este punto es de vital importancia tanto si la página web es pequeña como si la web es grande.

Hacer perder el tiempo a los bots de google no es una buena idea.

Tanto el rastreo como la posterior indexación y posicionamiento orgánico después de una página, dependen en buena medida de la capacidad de google para rastrear la página.

En muchas auditorias que hago, este es uno de los principales problemas que observo  y que traen consigo muchos problemas de posicionamiento orgánico de las webs.

Facilitar el rastreo a los bots y lograr que estos se centren en las páginas importantes para nuestra página web, es una de las habilidades de SEO que más me gustan.

Te puedo asegurar como algunas webs han alterado como de la noche al día, corrigiendo sólo este punto tan dramático en apenas un par de semanas.

4.4) Cómo detectar los problemas de rastreo

El mejor lugar para detectar inconvenientes de rastreo es dentro de Search console.

Dentro del apartado – rastreo > sitemaps

aquí podemos revisar si hay mucha diferencia entre el número de urls enviadas a google y las que verdaderamente se indexan.

Lo segundo que debemos observar dentro de la propia herramienta es dentro del apartado – índice de google > estado de indexación

y revisar si hay una caida esencial en el número total de páginas indizadas, lo cual señalaría que tenemos un inconveniente que solucionar.

Puedes revisar las 4 causas principales por las que Google puede suprimir páginas de las SERPS. En el vídeo lo explico:

Herramienta de para detectar el rastreo web:

4.5) Cómo corregirlos

Si se está usando wordpress y uno de sus plugins de SEO como puede ser Yoast, deberemos repasar la configuración de este plugin.

Si no se está utilizando esta alternativa, debemos repasar el archivo robots.txt por si acaso se está bloqueando algún recurso importante que impide el correcto rastreo y también indexación de la página.

Google ha declarado que no se deben bloquear los ficheros CSS y JS en el robots.txt.

Si se emplea otro Content Management System o bien una web a la medida y verificamos que se indexan páginas no importantes de la web, se debe colocar la etiqueta “noindex” en ellas.

A medida que una web crece, este punto es más crucial para que la página siga clasificándose correctamente.

4.6) 6. Inconvenientes de contenido delgado

El Thin content o bien contenido delgado es otro de los problemas más frecuentes, sobre todo en tiendas virtuales, aunque en blogs también se suele dar el caso.

Tener contenido delgado quita potencial al resto del dominio

Las páginas con contenido pobre suelen afectar al resto de páginas que se clasifican bien, por tanto, es un inconveniente técnico que se debe encarar y solucionar.

4.7) Cómo detectarlos

Si los usuarios entran en una página y se marchan muy rápido, es una mala señal.

Puede que el contenido de esa página no sea completísimo o que falte.

O quizá, no se da un información relevante, y entonces los usuarios se van a otro sitio web a buscarla.

Podemos detectarlo muy simple mediante google analytics, siguiendo estos pasos:

  1. Ir a la pestaña de comportamiento
  2. Contenido del sitio
  3. Páginas de destino
  4. selecciona los últimos tres meses y “mostrar doscientos cincuenta filas”

Se observan las urls que no han tenido “sesiones” o son escasísimas en este intervalo de tiempo.

4.8) Cómo corregirlos

Cuando hemos detectado cuales son las páginas que apenas consiguen impresiones o bien con un alto porcentaje de rebote, entonces podemos optar por una de las siguientes soluciones:

  • Incrementar mayor cantidad de contenido a esas páginas (texto, imágenes, vídeo, etc).
  • Poner etiqueta “noindex” a las páginas que sean de poco valor real para clasificar. Así, se acrecentará el potencial de las páginas primordiales.

4.9) 7. Problemas con los enlaces internos

No tener enlaces internos que pasen autoridad de una página de la web a otra, es encontrarse con un posible inconveniente de indexación + no aprovechar esta técnica de SEO para hacer crecer el tráfico orgánico.

Los links internos son de gran importancia hoy día para los motores de búsqueda, y mi consejo es que efectúes esta labor en todas y cada una de las urls o páginas de tu sitio.

Esta técnica de SEO te va a ayudar a prosperar el ranking de tus palabras clave.

Algunas webs pequeñas no usan los vínculos internos para transmitir equidad de una página a otra, perdiendo una parte esencial de su potencial orgánico.

Vincular artículos entre si o hacerlo desde el weblog a la tienda on line aporta un valor extra a google y al ranking de las palabras clave.

4.10) Cómo detectarlos

Para webs pequeñas se puede hacer de manera fácil de forma manual visitando cada una de las páginas y verificando si existen vínculos internos entre las páginas.

Para webs más grandes, se precisarán herramientas más precisas como:

4.11) Cómo corregirlos

Colocar vínculos internos desde publicaciones del blog hacia las páginas principales que se desean clasificar es una gran estrategia de SEO 🙂

Igual se puede hacer para tiendas online.

Además hay que aprovechar los vínculos internos para poner las palabras clave en los textos de anclaje del hipervínculo.

La clave está en usar diferentes textos de anclaje de forma natural.

Esto transmitirá aún más fuerza a la página de destino.

Los backlinks siguen siendo uno de los que Google tiene en cuenta para dar autoridad y confianza a un sitio.

Google otorga una puntuación diferente por cada backlinks siguiendo sus propios criterios.

Por ejemplo,

la puntuación que le puede dar a un link que apunte a nosotros desde un directorio gratuito será menor que la puntuación que tengamos desde una web que trate la misma temática que nosotros.

Aún de este modo, siempre y en toda circunstancia se debe intentar establecer una frecuencia en el tiempo para hacer la obtención de enlaces externos.

Ten en cuenta que, siempre y en todo momento es más interesante conseguir enlaces desde otros sitios web de exactamente la misma categoría o nicho que el nuestro, a links que no tengan nada que ver con nuestra temática.

Pero esto no siempre y en todo momento podemos supervisarlo.

Es realmente posible que tengas links de páginas que no tengan nada que ver con tu campo, incluso páginas nuevas o bien con muy escasa autoridad, lo que tampoco beneficia.

Ten por seguro, que tener 30 enlaces de sitios webs diferentes apuntando a tus páginas primordiales, tu clasificación orgánica va a aumentar.

Como para google los links siguen siendo esenciales, debemos lograrlos.

4.13) Cómo detectarlos

Para saber si tenemos backlinks o no podemos usar las próximas herramientas:

  • Search console
  • Open site explorer
  • Ahrefs
  • Monitor backlinks
  • Linkstant
  • Linkody

4.14) Cómo corregirlos

Podemos utilizar estas herramientas para saber la calidad de los enlaces y también para conocer si nos falta potencial de link para poder clasificar mejor nuestras palabras clave.

Es importante tener buenos enlaces externos que nos den autoridad y fuerza, mas debemos tener links de baja calidad para otorgar a google una “naturalidad” en el sistema de enlazado.

La clave aquí está en lograr que ese “menú de enlaces” se vea lo más natural posible.

Otro punto dentro de la auditoria de SEO técnico va a estar en la .

Back to top

5) 9. Problemas de marcado de datos estructurados

Si te digo la verdad, la mayoría de páginas webs auditadas carecen de marcado de datos.

Los administradores web no acostumbran a emplear este sistema de google para dar a entender mucho mejor al buscador de qué se trata cada página.

Dentro de la optimización SEO, el marcado de datos puede dar un impulso al ranking de las palabras clave, en tanto que ayuda al buscador a comprender mucho mejor de qué va cada una de las páginas de un sitio.

Según google el marcado de schema ayuda a clasificar una web

5.1) Cómo detectarlos

Usa Search console para advertir si hay fallos de marcado de datos o bien carece la página de ellos. Navega a través de search console:

  1. Apariencia en el buscador
  2. Datos estructurados

Haz una prueba utilizando la

5.2) Cómo corregirlos

Para corregir este inconveniente y de esta forma poder hacer entender mejor a google el tipo de contenido que hay en cada página, usa la misma herramienta de detección de errores para saber donde está el inconveniente del código y poder solucionarlo.

Si utilizas wordpress puedes usar un plugin para hacer esta labor más fácil como este :

  • Plugin All in One Schema . Con él obtendrás los Rich Snipeet o bien un breve resumen de la página en los resultados de la búsqueda de Google, Yahoo o Bing.

Si utilizas otro Content Management System distinto es posible que precises ayuda de un programador para incorporarlo. Solo debes conocer que Google prefiere los próximos formatos:

  • JSON-LD (recomendado)
  • Microdata
  • RDFa

Creo que incorporar este punto si puede ser una ventaja competitiva, en tanto que incluso hay muchas páginas webs que carecen de este complemento.

Bien, pues yo ya he comentado todo lo que tenía previsto en este artículo.

Estos datos son parte de mi trabajo y de lo que hago día tras día.

Muchas veces no se comprende cómo funciona esto del “SEO“, ya que tiene algunas ramas un tanto más técnicas como estas que terminamos de ver y que afectan de forma clara al posicionamiento de una web.

El SEO técnico es uno de los primeros puntos que se analizan cuando hay que auditar una web.

Y la experiencia me afirma que aquí están la mayor parte de los inconvenientes que actualmente limitan a una web avanzar en las situaciones de los buscadores web.

Si crees que necesitas ayuda para posicionar tu web, utiliza este formulario para contactar conmigo.

SEO Mánager en citiface.com

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO