9 Inconvenientes técnicos de posicionamiento web en buscadores que más cometen los webmasters

9 Inconvenientes técnicos de posicionamiento web en buscadores que más cometen los webmasters

15 Jul 2020 in

Analizar webs y efectuar análisis SEO es una de las labores que más realizo cada año.

Por ejemplo, en el dos mil diecinueve contabilicé más de 90 auditorias de páginas webs. Esto es una media de algo más de 6 análisis de páginas a nivel de posicionamiento en buscadores cada mes.

Aunque no parezca mucho, te aseguro que lleva trabajo hacerlo bien.

Podría decir que:

una auditoría SEO es conocer las fortalezas y debilidades de un sitio de cara a los motores de búsqueda como Google o bien Bing y actuar sobre ellas para progresar el ranking.

En algunos casos, son páginas webs pequeñas con unas pocas urls, mas en otros, pueden ser tiendas en línea con miles de urls para realizar un análisis técnico de posicionamiento SEO completo.

Y en alguna ocasión, son páginas webs pirateadas , con infecciones o con que hay que solucionar, y que advertir el problema en ocasiones no es tan veloz.

A raiz de este trabajo, veo problemas de SEO comunes en webs administradas por webmasters con escasos conocimientos técnicos a nivel de posicionamiento SEO.

Por eso, el día de hoy vamos a ver los inconvenientes técnicos más habituales de posicionamiento web que se suelen cometer y de qué forma solucionarlos.

Por supuesto, cuando son solucionados, el impacto que producen en los buscadores es mayor y genera una mejora del tráfico desde buscadores.

Vamos a por ellos !

Back to top

1) 1. Problemas con el rediseño de la web

En muchos casos que analizo, compruebo como después de un rediseño de la web, esta ha tenido una caida del tráfico desde buscadores.

Unas veces cae en torno a un 80 por cien y en otras el tráfico cae un diez por cien o bien veinte por cien .

Los nuevos diseños de páginas webs son un arma de doble filo a nivel de posicionamiento SEO.

Si no se hace bien, se puede producir un “derrumbe” del tráfico y tardar meses en recobrarse.

Algo como esto…

Otras veces ocurre que al hacer un diseño web nuevo, se suelen crear urls nuevas con la intención de optimizar mejor las viejas urls con la meta de que esto ayude a mejorar el ranking actual.

Sin embargo, se suele olvidar realizar las pertinentes redirecciones 301 de las urls viejas a las nuevas, y por consiguiente, se pierde gran cantidad de – enlace juice.

En estos casos, el ranking de la web cae y con ello, gran cantidad del número de visitas.

También puede caer el tráfico orgánico cuando se suprime mucho texto de páginas primordiales o bien categorías de temas o productos debido a que el nuevo diseño web es mas minimalista.

1.1) Cómo detectarlos

Se puede comprobar sencillamente por medio de Analytics.

Si coincide la data en la que se rediseñó la página web y la caida del tráfico orgánico, vamos a saber que hemos sufrido este problema de SEO.

1.2) Cómo corregirlos

En muchos casos que he analizado, suelen haber borrado las urls antíguas, por ende, no se pueden crear los redireccionamientos 301.

En otros casos donde se ha usado un Content Management System como wordpress, a veces, las han dejado activas pero no perceptibles, por consiguiente, implementando un simple complementos de redireccionamiento, podemos regresar a conseguir el tráfico desde buscadores que se tenía en unas semanas.

Se puede utilizar un plugin como este:

Con este complemento puedes crear redicrecciones trescientos uno fácilmente.

En el en el caso de que la caida del tráfico pudiese ser porque se ha eliminado texto de las páginas principales o bien categorías, y la relacion texto HTML está muy desiquilibrada, debemos estudiar la opción de de qué forma volver a poner texto relevante en ellas.

Vamos a conocer un tanto más sobre esto:

  • Ratio de Texto: es el porcentaje de texto plano que hay en una url en concreto.
  • Ratio de HTML: es el porcentaje de código CSS, imágenes, etiquetas…

¿Como es el porcentaje ideal entre texto y código de una web?

Se recomienda que este ratio sea un 30/70, esto es, un 30 por cien del contenido de la página ha de ser texto plano y el resto complementos como imágenes, multimedia, script, CSS.

¿Puede penalizar google tener un ratio texto HTML bajo?

Puede hacerlo de manera perfecta en forma de pérdida de posiciones orgánicas.

Yo considero que es una parte importante que hay que mirar dentro de una auditoría posicionamiento web.

Recuerda que para google es más fácil rastrear texto que imágenes (aunque cada vez avance más en este aspecto).

Además, incluso hoy en día por medio de , google se basa en el rastreo de las palabras clave que ha indicado el usuario mediante la voz.

Back to top

2) 2. Problemas de optimización web móvil 

Algunos estudios arrojan que casi un 24 por cien de las páginas webs existentes no son compatibles con dispositivos móviles.

Esto puede ser un inconveniente o bien una ventaja a nivel competitivo, según se mire 🙂

Google ha declarado oficialmente que en 2018 primero clasificará cada página web en su versión móvil y después en la versión de ordenador.

Esto indica que – móvil primero.

No confundir “web responsive” con una “diseño web móvil“, puesto que hay diferencias como vemos en la próxima imagen.

Aquí van ciertas sugerencias sobre el diseño web móvil:

  • No poner links demasiado juntos.
  • Si el texto es demasiado pequeño, hay un 95 por ciento de posibilidades de incompatibilidad con dispositivos móviles.
  • Si el texto del contenido no se ajusta a la ventana, hay un cincuenta y cinco por ciento de probabilidades de no pasar el Test.
  • Es una mala idea bloquear ficheros CSS y JS en el robots.txt .
  • Se crean sitios webs más ligeros y rápidos.

2.1) Cómo detectarlos

Para conocer un sitio web es compatible con los dispositivos móviles utiliza:

  • PageSpeed ​​Insights
  • Test mobile friendly
  • GTMetrix
  • Pingdom

2.2) Cómo corregirlos

Las propias herramientas te dan información sobre qué recursos son los que debes optimar.

Hay que procurar tener la mejor puntuación posible en ellas. Sobre un 80 por ciento mínimo estaremos en el buen camino.

En caso de no saber de qué manera hacerlo, se deberá contactar con un desarrollador web.

En caso de poder actualizar el PHP de la web a un PHP 7, se debe incorporar esta opción ya que puede progresar la velocidad de carga de la página web.

Back to top

3) 3. Inconvenientes con la experiencia de usuario (UX) móvil 

Ya hemos comentado que en el proceso de examinar una web, el usuario móvil y la experiencia de este navegando es uno de los factores de clasificación más esenciales en nuestros días.

A veces puede suceder que la versión móvil de un sitio web es algo diferente a la versión de computador y esto también influye en la experiencia del usuario.

Google ha aceptado que prefiere que las 2 versiones de una misma web sean iguales.

También ha declarado que seguramente los webmasters vean un aumento del rastreo del bot de Google para móvil. 

3.1) Cómo detectarlos

  1. Comienza por usar la herramienta que se ha mencionado en el punto anterior: Test mobile friendly.
  2. Comprobar en search console si el bot está rastreando todas y cada una de las páginas apropiadamente. Ir a “errores de rastreo” > “smartphone”.
  3. Comprobar que porcentaje de tráfico orgánico tiene la página desde móviles mediante google analytics.

3.2) Cómo corregirlos

Sabiendo que ahora Google da prioridad a la versión móvil a la hora de clasificar, podemos decantarse por múltiples actuaciones:

  1. Plantearnos mudar de plantilla a una que cumpla con los requisitos y sea una .
  2. Verificar el diseño tanto en iPhone como en Android.
  3. Implementar una de estas .
  4. Asegurar de que se puede hacer click fácilmente en cualquier elemento clicable de la página.
  5. Evitar poner elementos clicables demasiado cerca entre si. Deja espacio suficiente entre ellos. Google avisa sobre esto.
  6. Asegurarse de que el usuario puede hallar lo que desea fácil.
  7. Optimizar imágenes, y codificar HTML y minificar CSS a fin de que la web cargue en dos seg. o menos.
  8. Comprimir la web en el servidor .gzip, mejora la velocidad y de este modo la experiencia de usuario.

Un buen plugin que hace esta labor verdaderamente bien, si se usa wordpress es este:

Otro punto a analizar son los pop ups que se muestran en los móviles.

He comprobado como alguna página que he analizado, ha sido penalizada por enseñar intersticiales (pop ups) de forma beligerante.

Para enseñar apropiadamente las ventanas emergentes en la versión móvil hay que continuar las indicaciones del buscador.

Back to top

4) 4. Inconvenientes con la estructura de la página web 

Crear contenido para atraer tráfico viene a veces con un problema agregado:

una mala estructuración de los contenidos trae inconvenientes de posicionamiento

Una mala estructura de la web o bien categorización , afecta tanto a webs pequeñas como a páginas webs grandes.

Esto lo he comprobado en muchas de las auditorías técnicas que he realizado.

Se debe dedicar un tiempo a crear contenido, pero también a ordenarlo.

Considera esta opción como si fuera un arma secreta que no se ve.

Conforme aumenta el tamaño de la página web es más importante tener bien categorizado el contenido.

Por ejemplo,

Si se crea contenido nuevo semanalmente en el blog, hay que intentar evitar inconvenientes de canibalización entre artículos.

También acostumbra a ocurrir, que en tiendas on line ciertos artículos del weblog le quiten el ranking a páginas de productos, siendo esto un inconveniente de cara a las ventas del ecommerce.

Hay que llevar cuidado con la elección de palabras clave cuando se trabaja un blog y una tienda en línea dentro del mismo site.

La canibalización de palabras clave ocurre cuando dos o mas urls de una web, (por poner un ejemplo ), se clasifican involuntariamente por la misma palabra clave.

Doy un pequeño detalle…

No siempre es malo tener dos urls posicionadas en la página 1 por una misma palabra clave.

Hay que tomar en consideración que Google muestra las páginas en las Search Engines Ranking Positions conforme la pretensión del usuario, por lo tanto, se puede dar el en el caso de que se muestren 2 páginas de un mismo sitio web para un término de busca.

4.1) Cómo detectarlos

Para detectar si tenemos canibalización de palabras clave podemos usar un comando de búsqueda tan simple como este:

  • Busca entre comillas tu “keyword”
  • site:dominio.com “keyword”

Ejemplo,

Si ves más de una url tuya en las SERPs quiere decir que deberás comprobar esas páginas por el hecho de que puede que una le reste valor a otra.

Si tienes dos páginas afines que clasifican por una misma palabra clave, posiblemente tengas que “unirlas” como vamos a ver a continuación.

4.2) Cómo corregirlos

Para crear una buena arquitectura de la web se debe establecer anteriormente de qué forma va a ser esa estructura jerárquica.

Google utiliza entidades para buscar el contexto de un término de busca, y cuanto más contexto se utilice, mejor.

Las entidades son la razón por la que es difícil clasificar para una palabra clave con una sola pieza de contenido, y ahora comprenderás por qué razón con una sola pieza o bien artículo sobre una keyword, es muy complicado clasificarse hoy en día.

Las entidades son las que envían información a google sobre la calidad y cantidad de una pieza de contenido, y para esto debemos clasificarlas.

Repito…

Aquí la clave es: a mayor contexto, mejor información.

Y para organizar un blog o una tienda on line se puede hacer de 2 formas:

  1. Por temas.
  2. Por categorías.

Te preguntarás, ¿como es la diferencia y cual es la opción mejor?

Por categorías es como por norma general se estructura un blog, no obstante, la estructura por temas es una forma mejor de organizar el contenido.

Al trabajar la estructura web con entidades o bien temas, debemos pensar como se organiza una biblioteca.

Esto sería aproximadamente cómo google entiende la estructura web por categorias:

Y esto es cómo comprende google una web organizada por temas:

La segunda opción indica que se trabaja un tema de contenido en mayor profundidad.

He aquí un caso algo más práctico:

Para ayudar a Google a entender las entidades por las que desea clasificar, debemos pensar en concepto de jerarquía y después crear contenido que coincida con esa jerarquía .

He creado un artículo donde explico esta nueva manera de organizar el contenido de una web o bien blog:

Problema de canibalización

Cuando verificamos que existe una canibalización de páginas y 2 o bien más páginas luchan por posicionarse por una misma palabra clave o bien “intención de búsqueda”, entonces debemos encarar una de las siguientes soluciones:

  • Crear una sola página usando el contenido de las 2. A esta página “más larga” se pueden redirigir las 2 viejas pasando de esta forma la fuerza a la publicación nueva.
  • Poner la etiqueta “noindex” a una de ellas y que clasifique solo una de las dos páginas.
  • Des-optimizar una de las páginas cambiando título y palabras clave para eliminar la canibalización.
  • Redireccionamiento 301 de una a otra y que clasifique mejor una de ellas.
  • Indicar una url como canónica y que google entienda como es la página “buena”.

4.3) 5. Inconvenientes de indexación

Dentro de la auditoria de posicionamiento en buscadores técnico este punto es de crucial importancia tanto si la web es pequeña tal y como si la web es grande.

Hacer perder el tiempo a los bots de google no es una buena idea.

Tanto el rastreo como la posterior indexación y posicionamiento orgánico después de una página web, dependen en buena medida de la capacidad de google para rastrear la página.

En muchas auditorias que hago, este es uno de los principales inconvenientes que observo  y que llevan consigo muchos problemas de posicionamiento orgánico de las webs.

Facilitar el rastreo a los bots y conseguir que estos se centren en las páginas esenciales para nuestra página web, es una de las habilidades de SEO que más me agradan.

Te puedo asegurar como ciertas webs han alterado como de la noche al día, corrigiendo solo este punto tan trágico en apenas un par de semanas.

4.4) Cómo detectar los problemas de rastreo

El mejor sitio para advertir inconvenientes de rastreo es en Search console.

Dentro del apartado – rastreo > sitemaps

aquí podemos revisar si hay mucha diferencia entre el número de urls enviadas a google y las que verdaderamente se indexan.

Lo segundo que debemos observar en la propia herramienta es dentro del apartado – índice de google > estado de indexación

y revisar si hay una caida importante en el número total de páginas indizadas, lo cual señalaría que tenemos un inconveniente que solucionar.

Puedes revisar las 4 causas principales por las cuales Google puede quitar páginas de las SERPS. En el vídeo lo explico:

Herramienta de para detectar el rastreo web:

4.5) Cómo corregirlos

Si se está utilizando wordpress y uno de sus plugins de SEO como puede ser Yoast, deberemos revisar la configuración de este complemento.

Si no se está utilizando esta alternativa, debemos comprobar el fichero robots.txt por si se está bloqueando algún recurso importante que impide el correcto rastreo e indexación de la página.

Google ha declarado que no se deben bloquear los archivos CSS y JS en el robots.txt.

Si se utiliza otro CMS o bien una web a la medida y comprobamos que se indexan páginas no esenciales de la página web, se debe poner la etiqueta “noindex” en ellas.

A medida que una web medra, este punto es más vital para que la página siga clasificándose correctamente.

4.6) 6. Problemas de contenido delgado

El Thin content o contenido delgado es otro de los inconvenientes más comunes, sobre todo en tiendas en línea, si bien en blogs también se acostumbra a dar el caso.

Tener contenido delgado quita potencial al resto del dominio

Las páginas con contenido pobre acostumbran a afectar al resto de páginas que se clasifican bien, por ende, es un problema técnico que se debe encarar y solventar.

4.7) Cómo detectarlos

Si los usuarios entran en una página y se van muy rápido, es una mala señal.

Puede que el contenido de esa página no sea completísimo o bien que falte.

O quizá, no se da un información relevante, y entonces los usuarios se van a otro sitio web a buscarla.

Podemos detectarlo muy simple a través de google analytics, siguiendo estos pasos:

  1. Ir a la pestañita de comportamiento
  2. Contenido del sitio
  3. Páginas de destino
  4. selecciona los últimos 3 meses y “mostrar 250 filas”

Se observan las urls que no han tenido “sesiones” o bien son muy escasas en este intervalo de tiempo.

4.8) Cómo corregirlos

Cuando hemos detectado cuales son las páginas que apenas consiguen impresiones o bien con un alto porcentaje de rebote, entonces podemos decantarse por una de las siguientes soluciones:

  • Incrementar mayor cantidad de contenido a esas páginas (texto, imágenes, vídeo, etc).
  • Poner etiqueta “noindex” a las páginas que sean de poco valor real para clasificar. De este modo, se acrecentará el potencial de las páginas primordiales.

4.9) 7. Inconvenientes con los enlaces internos

No tener links internos que pasen autoridad de una página de la web a otra, es encontrarse con un posible inconveniente de indexación + no aprovechar esta técnica de SEO para hacer medrar el tráfico desde buscadores.

Los links internos son de suma importancia en la actualidad para los buscadores, y mi consejo es que realices esta tarea en todas y cada una de las urls o páginas de tu sitio.

Esta técnica de posicionamiento SEO te va a ayudar a progresar el ranking de tus palabras clave.

Algunas webs pequeñas no usan los vínculos internos para transmitir equidad de una página a otra, perdiendo una parte esencial de su potencial orgánico.

Vincular artículos entre si o hacerlo desde el weblog a la tienda on line aporta un valor extra a google y al ranking de las palabras clave.

4.10) Cómo detectarlos

Para webs pequeñas se puede hacer de manera fácil de forma manual visitando cada una de las páginas y verificando si existen vínculos internos entre las páginas.

Para webs más grandes, se precisarán herramientas más precisas como:

4.11) Cómo corregirlos

Colocar vínculos internos desde publicaciones del weblog hacia las páginas primordiales que se desean clasificar es una gran estrategia de SEO 🙂

Igual se puede hacer para tiendas online.

Además hay que aprovechar los vínculos internos para poner las palabras clave en los textos de anclaje del hipervínculo.

La clave está en usar diferentes textos de anclaje de forma natural.

Esto transmitirá todavía más fuerza a la página de destino.

Los enlaces prosiguen siendo uno de los que Google tiene presente para dar autoridad y confianza a un sitio.

Google otorga una puntuación diferente por cada enlaces siguiendo sus propios criterios.

Por ejemplo,

la puntuación que le puede dar a un link que apunte a nosotros desde un directorio gratis será menor que la puntuación que tengamos desde una web que trate exactamente la misma temática que nosotros.

Aún así, siempre y en toda circunstancia se debe intentar establecer una frecuencia en el tiempo para hacer la obtención de enlaces externos.

Ten en cuenta que, siempre y en toda circunstancia es más interesante conseguir enlaces desde otros sitios web de la misma categoría o nicho que el nuestro, a links que no tengan nada que ver con nuestra temática.

Pero esto no siempre podemos controlarlo.

Es realmente posible que tengas enlaces de páginas que no tengan nada que ver con tu campo, aun páginas nuevas o con muy escasa autoridad, lo que tampoco beneficia.

Ten por seguro, que tener 30 enlaces de sitios webs diferentes apuntando a tus páginas primordiales, tu clasificación orgánica aumentará.

Como para google los links siguen siendo importantes, debemos conseguirlos.

4.13) Cómo detectarlos

Para saber si tenemos enlaces o no podemos usar las siguientes herramientas:

  • Search console
  • Open site explorer
  • Ahrefs
  • Monitor backlinks
  • Linkstant
  • Linkody

4.14) Cómo corregirlos

Podemos usar estas herramientas para saber la calidad de los links y también para conocer si nos falta potencial de link para poder clasificar mejor nuestras palabras clave.

Es esencial tener buenos links externos que nos den autoridad y fuerza, pero debemos tener links de baja calidad para conceder a google una “naturalidad” en el sistema de enlazado.

La clave aquí está en conseguir que ese “menú de enlaces” se vea lo más natural posible.

Otro punto en la auditoria de posicionamiento web técnico va a estar en la .

Back to top

5) 9. Inconvenientes de marcado de datos estructurados

Si te digo la verdad, la mayor parte de páginas webs auditadas carecen de marcado de datos.

Los webmasters no acostumbran a emplear este sistema de google para dar a entender mucho mejor al buscador de qué se trata cada página.

Dentro de la optimización SEO, el marcado de datos puede dar un impulso al ranking de las palabras clave, ya que ayuda al buscador a entender mucho mejor de qué va cada una de las páginas de un sitio web.

Según google el marcado de schema ayuda a clasificar una web

5.1) Cómo detectarlos

Usa Search console para detectar si hay fallos de marcado de datos o bien carece la página de ellos. Navega a través de search console:

  1. Apariencia en el buscador
  2. Datos estructurados

Haz una prueba usando la

5.2) Cómo corregirlos

Para corregir este problema y de esta forma poder hacer entender mejor a google el género de contenido que hay en todos y cada página, usa exactamente la misma herramienta de detección de errores para saber donde está el problema del código y poder solventarlo.

Si utilizas wordpress puedes utilizar un complemento para hacer esta tarea más simple como este :

  • Plugin All in One Schema . Con él obtendrás los Rich Snipeet o bien un breve resumen de la página en los resultados de búsqueda de Google, Yahoo o bien Bing.

Si empleas otro Content Management System diferente puede que precises ayuda de un programador para incorporarlo. Solo debes conocer que Google prefiere los próximos formatos:

  • JSON-LD (recomendado)
  • Microdata
  • RDFa

Creo que implementar este punto si puede ser una ventaja competitiva, en tanto que incluso existen muchas páginas webs que carecen de este complemento.

Bien, puesto que ya he comentado todo cuanto tenía previsto en el presente artículo.

Estos datos son parte de mi trabajo y de lo que hago día a día.

Muchas veces no se comprende cómo funciona esto del “SEO“, en tanto que tiene algunas ramas un poco más técnicas como estas que acabamos de ver y que afectan de forma clara al posicionamiento de una web.

El SEO técnico es uno de los primeros puntos que se analizan cuando hay que auditar una página.

Y la experiencia me dice que aquí están la mayor parte de los problemas que en nuestros días limitan a una web avanzar en las situaciones de los buscadores web.

Si crees que necesitas ayuda para posicionar tu web, usa este formulario para contactar conmigo.

SEO Mánager en citiface.com

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO