SEO Técnico - diez consejos para posicionar mejor

SEO Técnico - diez consejos para posicionar mejor

15 Jul 2020 in

Tabla de contenido

  1. La versión cacheada de Google halla el contenido
  2. Configuración del fichero robots.txt
    1. Asegurate de que no hay recursos bloqueados a los bots
    2. El archivo robots.txt no presenta errores
  3. Comprueba que lo que ve el usuario en el navegador es lo que ve Googlebot
  4. Asegurate que los archivos CSS, JS e imágenes no están bloqueados por robots
  5. Enlaces rotos o bien errores de crawlabilidad
    1. Errores de Servidor - Error quinientos o 503
    2. Acceso rechazado ( Revisar el archivo robots.txt ) - Código de contestación 403
    3. Errores cuatrocientos cuatro ( urls no se hallan )
  6. Comprobar que el renderizado del HTML es correcto
  7. Validar los datos estructurados o schema
  8. Configurar URL's con parámetros en Search Console
  9. Deshabilita CSS y comprueba la información en la página es exactamente la misma para Googlebot y para el usuario
  10. Actualización del Sitemap XML vs Sitemap HTML vs RSS
  11. La versión cacheada de Google halla el contenido
  12. Configuración del fichero robots.txt
    1. Asegurate de que no hay recursos bloqueados a los bots
    2. El archivo robots.txt no presenta errores
    3. Asegurate de que no hay recursos bloqueados a los bots
    4. El archivo robots.txt no presenta errores
  13. Comprueba que lo que ve el usuario en el navegador es lo que ve Googlebot
  14. Asegurate que los archivos CSS, JS y también imágenes no están bloqueados por robots
  15. Enlaces rotos o bien errores de crawlabilidad
    1. Errores de Servidor - Error quinientos o 503
    2. Acceso rechazado ( Revisar el archivo robots.txt ) - Código de contestación 403
    3. Errores 404 ( urls no se encuentran )
    4. Errores de Servidor - Error 500 o 503
    5. Acceso denegado ( Revisar el archivo robots.txt ) - Código de contestación 403
    6. Errores cuatrocientos cuatro ( urls no se hallan )
  16. Comprobar que el renderizado del HTML es correcto
  17. Validar los datos estructurados o schema
  18. Configurar URL's con parámetros en Search Console
  19. Deshabilita CSS y comprueba la información en la página es la misma para Googlebot y para el usuario
  20. Actualización del Sitemap XML vs Sitemap HTML vs RSS

A continuación se documentan diez consejos para revisar que el posicionamiento SEO Técnico de tú web o bien weblog cumple un mínimo de requisitos a fin de que no haya ningún tipo de inconveniente en que Googlebot pueda acceder a tu sitio.

Igualmente, se provee información para la crawlabilidad e indexación de un sitio web. Como se puede ver en estas diapositivas,. Mas para que una web pueda ser indexada, primero debe poder ser crawleada.

Por ello, también se ofrecerán.

  1. Back to top

    1) La versión cacheada de Google halla el contenido

  2. Ya hemos comprobado que los bots pueden acceder a la web sin inconvenientes y que los links en la web dejan generar un camino por el cual los crawlers pueden acceder a la información de todas y cada una de las páginas.

    Ahora debemos comprobar que la información que se muestra en esas páginas, puede ser procesada por los buscadores. Para esto, vamos a visualizar si la versión cacheada en el navegador de Google contiene toda la información que se provee en la página web.

    Para poder llevar a cabo esta labor, edita la URL en la barra de dirección del navegador de manera que introduzcas al comienzo de exactamente la misma la palabra cache: y pulsa Intro, como aparece en la imagen siguiente:

    Ejemplo visual de como puedes ver la versión cacheada de una web

    El resultado será algo similar a lo que aprecia en la imagen, aparecerán tres opciones en la parte superior izquierda en las podrás ver como se renderiza la web para la versión completa ( lo que ve el usuario ); la versión texto, es el contenido que puede ver el bot o crawler y finalmente la opción "Ver origen" que es código.


    Ejemplo visual de la versión cacheada de una página de la Wikipedia

    Se puede comprobar que aparecen las diferentes opciones:


  • Versión completa - Es la versión que se puede ver en el navegador
  • Versión solo texto - Al hacer click vamos a poder ver la información que el buscador ha encontrado
  • Ver origen - En esta opción se verá el código fuente

  • Back to top

    2) Configuración del fichero robots.txt

  • Asegurate de que no hay limitaciones para los bots al acceder. Eso si, se puede configurar este archivo para determinar qué bots pueden acceder y cuales no. De igual manera, se puede determinar qué secciones de la página web quieres que sean crawleadas o no.

    Aquí se facilita la documentación oficial de Google para la creación de un fichero robots.txt y la configuración del mismo.

    Mediante la herramienta Search Console, se pueden comprobar qué elementos están bloqueados y los diferentes errores que pueden aparecer en relación a la configuración del fichero robots.txt

    Para poder estar seguros de que no aparecen errores en los puntos que hemos comentado, mediante Search Console se pueden comprobar:

    • 2.1) Asegurate de que no hay recursos bloqueados a los bots

    • Imagen de recursos bloqueados de una web en Search Console, generalmente serán archivos CSS & JS
    • 2.2) El archivo robots.txt no presenta errores

    • Imagen del probador de robots.txt de Search Console
  • Back to top

    3) Comprueba que lo que ve el usuario en el navegador es lo que ve Googlebot

  • En en el caso de que al analizar la versión cacheada la información que ven los bots no sea exactamente la misma que se muestra en el navegador, esto es la que el usuario pueder ver, es posible que sea debido a una error de crawleo, como se puede revisar en la imagen siguiente:

    Imagen de como puede ver GoogleBot tu contenido a través de un análisis de crawlabilidad y también indexabilidad

    Al ejecutar Rastrear como Google, vemos que en la parte izquierda el mensaje "Así es como Googlebot ha visto la página" difiere de la parte derecha "Así es como un visitante del sitio web habría visto la página". Esto es debido a que hay elementos bloqueados que éstán impidiendo el acceso total a archivos CSS y JS y cuyos mensajes nos indican los fallos de configuración en el fichero robots.txt.

  • Back to top

    4) Asegurate que los archivos CSS, JS e imágenes no están bloqueados por robots

  • En este artículo de Mozse documenta la necesidad de configurar el archivo robots.txt para permitir el acceso a fichero CSS y JS.

    Para estar totalmente seguro de que están desbloqueandos todos los ficheros JavaScript y CSS, se puede añadir al archivo robots.txt, las siguientes líneas de código:

    User-Agent: Googlebot
    Allow: *.js
    Allow: *.css

    Si en el fichero robots.txt se están bloqueando directorios completos, puede ser un tanto más complicado.En estos casos, también es preciso permitir el acceso a los bots de Google para cada uno de ellos de los directorios que ha bloqueado.

    Por ejemplo:
    User-Agent: Googlebot
    Disallow: /modulos/
    Allow: /modulos/*.js
    Allow: /modulos/*.css

    Igualmente Matt Cutts lo explica en este vídeo:

  • Back to top

    5) Enlaces rotos o bien errores de crawlabilidad

  • Lo primero es el crawleo, por ello se debe comprobar que no hay restricciones a fin de que los bots puedan acceder a la información.

    Esto supone que una vez se les ha facilitado la vía de entrada, hay que asegurarse que los links internos que existen en el contenido o en las distintas secciones de la página web, no tienen errores, o sea, las arañas de Google y el resto de buscadores web pueden seguir rastreando el resto de páginas.

    Una herramienta con la que puedes comprobar que no hay links rotos en tú web es

    Para poder valorar los diferentes problemas de crawlabilidad que puedan estar ocurriendo, a través de la herramienta Search Console podemos acceder a la sección Rastreo>>Errores de rastreo

    Algunos de los errores más comunes son:


    • 5.1) Errores de Servidor - Error quinientos o 503

    • 5.2) Acceso rechazado ( Revisar el archivo robots.txt ) - Código de contestación 403

    • 5.3) Errores cuatrocientos cuatro ( urls no se hallan )

    Aquí puedes contar con del listado de contestaciones HTTP de servidor y qué significa cada uno de ellos de ellas:

    Imagen de errores cuatrocientos cuatro o bien errores de URL's que no se encuentran
  • Back to top

    6) Comprobar que el renderizado del HTML es correcto

  • Lo verdaderamente importante en este caso es que en la versión cacheada de Google, específicamente en "Versión solo texto", el buscador haya podido encontrar todo el contenido o la información por la que nos interesa posicionar.

    En caso contrario, sería recomendable comprobar por qué la información no se renderiza corréctamente. Puede ser por que la implementación esté hecha con AJAX, la web esté hecha con un Framework en Javascript que preprocesa el renderizado del HTML o bien cualquier otra incidencia técnica.

    Dicho esto, pasamos a valorar la próxima mejora técnica que se tendría que tener en cuenta.

    ¿Cómo hacemos esto?, mediante Search Console se puede ejecutar "Explorar como Google". Seleccionar una página de tú web, y una vez se ha llevado a cabo la tarea verifica que la contestación HTTP de descarga es correcta.

    En el caso de que aparezca cualquier error, por ejemplo, la respuesta HTTP no sea 200 OK, muestre un mensaje de que la URL está bloqueada, la URL no se encuentra, etcétera entonces nuevamente sería preciso comunicar con el equipo técnico para solucionar este problema, ya sea por configuración de robots.txt, error de servidor, etc.

    Imagen de la respuesta de la petición HTTP al ejecutar el explorador de Search Console para acrecentar la frecuencia de rastreo.
  • Back to top

    7) Validar los datos estructurados o schema

  • En este caso se facilita el enlace a la herramienta para poder validar la implementación de los Rich Snippets, así sea en el markup ( a través de código HTML en el template) o mediante JSON, es una buena práctica revisar que la implementación de los datos estructurados es adecuada.

    Schema.org es un vocabulario específico de etiquetas (o bien microdatos) que se pueden agregar a su HTML para la manera en que su página es entendida por los motores de búsqueda.

    Schema.org es el resultado de la colaboración entre Google, Bing, Yandex, y Yahoo! para ayudar a proporcionar la información de sus motores de búsqueda mediante un lenguaje estándar que deje comprender el contenido por parte de las máquinas y ofrecer los mejores resultados posibles de búsqueda.

    Implementar Rich Snippets en código HTML mejora la forma en que su página pueda ser mostrada en las SERPs mediante la mejora de los fragmentos enriquecidos que se muestran bajo el título de la página.

    es el sitio oficial donde podrá hallar las últimas actualizaciones, una guía para la implementación de esquemas y preguntas usuales.

  • Back to top

    8) Configurar URL's con parámetros en Search Console

  • Normalmente, las URLs con parámetros se generan en páginas webs que ofrecen distintas opciones de clasificación como Ordenar = relevancia, tipo = ascendiente, paginación y así sucesivamente, que también se debe tener en cuenta como parámetros de URL.

    Por lo general, todo depende de la configuración del lugar, la arquitectura y la tecnología que se utilice para mostrar u ordenar la información.

    Una buena práctica posicionamiento web es la generación de URL-friendly, cuya URL no contiene parámetros dinámicos y contiene las palabras clave por las que se quiere posicionar.

    A continuación vamos a ver como administrar la crawlabilidad de las URL's con parámetros a través de Search Console.

    La administración de parámetros es una opción útil para ayudar a la indexación, vale la pena desde el punto de vista de aumento de tráfico orgánico y desindexación de páginas que se se indexan en los motores de búsqueda pero no aportan valor a la captación de nuevos usuarios en los motores de búsqueda, un ejemplo de URL con parámetros es: /?utm_campaign=coschedule&utm_source=twitter&utm_medium=.

    Imagen para configurar el parametro de URL en Search Console y optimizar el crawl budget.

    Al hacer click en Editar,en la opción del parámetro que se quiera configurar, aparecerá una interfaz donde se podrá determinar qué se quiere hacer con las URLs que contengan dicho parámetro.

    Imagen para configurar el parametro de utm_medium en Search Console y optimar el crawl budget.

    El objetivo es minimizar el número de URL's con parámetros indexadas, de manera que sea más fácilmente rastreable por Google, lo que aumentará la frecuencia de rastreo de su lugar, y también tendrán un costo menor en el ancho de banda preciso para crawlear la información.

    Mi recomendación sería, comprobar qué URLs con parámetros tiene indizados Google de su sitio y además que parámetros ha detectado en Search Console.

    Una vez identificadas las URL's con parámetros indizadas que no traigan tráfico orgánico, desindexar las mismas. Paralelamente, condigurar las URL's con parámetros para la crawlabilidad de indexabilidad.

  • Back to top

    9) Deshabilita CSS y comprueba la información en la página es exactamente la misma para Googlebot y para el usuario

  • En este caso no nos referimos a que haya información que se carga en el navegador, pero que los usuarios no ven.

    Nos referimos a que la información que se carga en el DOM, tiene que ser la misma que los crawlers procesan, o sea, que no se esté cargando ninguna información extra en la plantilla de forma que se repita en secciones de la web donde no es útil.

    Para poder hacer esta comprobación es necesario tener instalado, así sea en Mozilla Firefox o Google Chrome la extensión "". Una vez se instale, ir a la sección: CSS>>Disable all styles

    Imagen del add-on Web Developer Toolbar para ver la página web sin estilos CSS.

    El objetivo es encontrar aquellas imágenes, textos o contenidos que se cargan al hacer la petición HTTP de la página, es decir al cargar exactamente la misma, pero cuya información no se ve en el navegador por el usuario.

    Estos fallos suelen ser comunes en CMS o bien plataformas que usan un sistema de plantillas, de forma que se cargan en todas las páginas, mas que no aportan valor al contenido, consumen recursos y no los bots lo pueden interpretar como.

    Igualmente pueden estar presentes en webs que estén desarrolladas con implementaciones AJAX, de manera que la información se cargue pero esté oculta y que se muestre cuando se ejecuta un acontecimiento en Javascript. Una vez el usuario interactua con la página web y hace click, scroll o cualquiera otra interactuación, la información será mostrada o bien ocultada.

    En estos casos, es necesarioy comprobar la información cacheada por Google.

  • Back to top

    10) Actualización del Sitemap XML vs Sitemap HTML vs RSS

  • Seguro que esta cuestión levanta un tanto de controversia, como puedes revisar en la imagen, el Sitemap XML en la página web de Brandemia lleva sin actualizarse más de un año y sigue incrementando el tráfico orgánico, como puedes ver aquí:

    La vía opción alternativa para la crawlabilidad e indexación de la página web ha sido esta:

    Imagen del análisis de la carga de un archivo Sitemap XML en el navegador

    Es una buena práctica la actualización del fichero Sitemap XML y hacer ping en Search Console en el caso de que no exista otra alternativa, como puede ser un Sitemap HTML.

    Cada posicionamiento en buscadores aplica los cambios que considera que serán mejores basándonos en las características del Content Management System, el control que tenga sobre la parte técnica o las restricciones que haya por parte del cliente en el momento de incorporar las diferentes opciones para el posiciconamiento en motores de búsqueda.

    Back to top

    11) La versión cacheada de Google halla el contenido

    Ya hemos comprobado que los bots pueden acceder a la página web sin inconvenientes y que los enlaces en la web permiten generar un camino por el que los crawlers pueden acceder a la información de todas y cada una de las páginas.

    Ahora debemos comprobar que la información que se muestra en esas páginas, puede ser procesada por los buscadores. Para esto, vamos a visualizar si la versión cacheada en el navegador de Google contiene toda la información que se provee en la página web.

    Para poder hacer esta tarea, edita la URL en la barra de dirección del navegador de manera que introduzcas al comienzo de la misma la palabra cache: y pulsa Intro, como aparece en la imagen siguiente:

    El resultado será algo similar a lo que aprecia en la imagen, aparecerán tres opciones en la parte superior izquierda en las podrás ver como se renderiza la web para la versión completa ( lo que ve el usuario ); la versión texto, es el contenido que puede ver el bot o crawler y por último la opción "Ver origen" que es código.

    Se puede revisar que aparecen las diferentes opciones:

    • Versión completa - Es la versión que se puede ver en el navegador
    • Versión solo texto - Al hacer click podremos ver la información que el buscador ha encontrado
    • Ver origen - En esta opción se verá el código fuente
    Back to top

    12) Configuración del fichero robots.txt

    Asegurate de que no hay limitaciones para los bots al acceder. Eso si, se puede configurar este archivo para determinar qué bots pueden acceder y cuales no. Del mismo modo, se puede determinar qué secciones de la web quieres que sean crawleadas o no.

    Aquí se facilita la documentación oficial de Google para la creación de un archivo robots.txt y la configuración del mismo.

    Mediante la herramienta Search Console, se pueden comprobar qué elementos están bloqueados y los diferentes errores que pueden aparecer en relación a la configuración del archivo robots.txt

    Para poder estar seguros de que no aparecen errores en los puntos que hemos comentado, mediante Search Console se pueden comprobar:

    • 12.1) Asegurate de que no hay recursos bloqueados a los bots

    • Imagen de recursos bloqueados de una web en Search Console, por norma general serán archivos CSS & JS
    • 12.2) El archivo robots.txt no presenta errores

    • Imagen del probador de robots.txt de Search Console

    12.3) Asegurate de que no hay recursos bloqueados a los bots

    12.4) El archivo robots.txt no presenta errores

    Back to top

    13) Comprueba que lo que ve el usuario en el navegador es lo que ve Googlebot

    En caso de que al examinar la versión cacheada la información que ven los bots no sea exactamente la misma que se muestra en el navegador, esto es la que el usuario pueder ver, puede que sea debido a una fallo de crawleo, como se puede revisar en la imagen siguiente:

    Al ejecutar Rastrear como Google, vemos que en la parte izquierda el mensaje "Así es como Googlebot ha visto la página" difiere de la parte derecha "Así es como un visitante del sitio web habría visto la página". Esto se debe a que hay elementos bloqueados que éstán impidiendo el acceso total a ficheros CSS y JS y cuyos mensajes nos señalan los errores de configuración en el archivo robots.txt.

    Back to top

    14) Asegurate que los archivos CSS, JS y también imágenes no están bloqueados por robots

    En este artículo de Mozse documenta la necesidad de configurar el archivo robots.txt para permitir el acceso a fichero CSS y JS.

    Para estar absolutamente seguro de que están desbloqueandos todos y cada uno de los ficheros JavaScript y CSS, se puede añadir al archivo robots.txt, las siguientes líneas de código:

    User-Agent: Googlebot
    Allow: *.js
    Allow: *.css

    Si en el archivo robots.txt se están bloqueando directorios completos, puede ser un tanto más complicado.En estos casos, también es preciso permitir el acceso a los bots de Google para cada uno de los directorios que ha bloqueado.

    Igualmente Matt Cutts lo explica en este vídeo:

    Back to top

    15) Enlaces rotos o bien errores de crawlabilidad

    Lo primero es el crawleo, por esta razón se debe comprobar que no hay limitaciones a fin de que los bots puedan acceder a la información.

    Esto supone que una vez se les ha facilitado la vía de entrada, hay que asegurarse que los enlaces internos que existen en el contenido o en las diferentes secciones de la web, no tienen fallos, o sea, las arañas de Google y el resto de buscadores web pueden proseguir rastreando el resto de páginas.

    Una herramienta con la que puedes revisar que no hay links rotos dentro de tú web es

    Para poder valorar los diferentes problemas de crawlabilidad que puedan estar ocurriendo, a través de la herramienta Search Console podemos acceder a la sección Rastreo>>Errores de rastreo

    Algunos de los fallos más comunes son:

    • 15.1) Errores de Servidor - Error quinientos o 503

    • 15.2) Acceso rechazado ( Revisar el archivo robots.txt ) - Código de contestación 403

    • 15.3) Errores 404 ( urls no se encuentran )

    15.4) Errores de Servidor - Error 500 o 503

    15.5) Acceso denegado ( Revisar el archivo robots.txt ) - Código de contestación 403

    15.6) Errores cuatrocientos cuatro ( urls no se hallan )

    Aquí puedes disponer del listado de contestaciones HTTP de servidor y qué significa cada uno de ellas:

    Back to top

    16) Comprobar que el renderizado del HTML es correcto

    Lo verdaderamente esencial en un caso así es que en la versión cacheada de Google, en concreto en "Versión solo texto", el buscador haya podido hallar todo el contenido o la información por la que nos resulta de interés posicionar.

    En caso contrario, sería recomendable revisar por qué la información no se renderiza corréctamente. Puede ser por que la implementación esté hecha con AJAX, la web esté hecha con un Framework en Javascript que preprocesa el renderizado del HTML o cualquier otra incidencia técnica.

    Dicho esto, pasamos a valorar la siguiente mejora técnica que se tendría que tener en cuenta.

    ¿Cómo hacemos esto?, mediante Search Console se puede ejecutar "Explorar como Google". Escoger una página de tú web, y una vez se ha llevado a cabo la labor verifica que la contestación HTTP de descarga es adecuada.

    En el en caso de que aparezca cualquier error, por poner un ejemplo, la respuesta HTTP no sea doscientos OK, muestre un mensaje de que la URL está bloqueada, la URL no se halla, etcétera entonces de nuevo sería necesario comunicar con el equipo técnico para solventar este problema, así sea por configuración de robots.txt, fallo de servidor, etc.

    Back to top

    17) Validar los datos estructurados o schema

    En este caso se facilita el enlace a la herramienta para poder validar la implementación de los Rich Snippets, así sea en el markup ( mediante código HTML en el template) o a través de JSON, es una buena práctica comprobar que la implementación de los datos estructurados es correcta.

    Schema.org es un léxico específico de etiquetas (o bien microdatos) que se pueden añadir a su HTML para la manera en que su página es entendida por los motores de búsqueda.

    Schema.org es el resultado de la colaboración entre Google, Bing, Yandex, y Yahoo! para asistir a proporcionar la información de sus motores de búsqueda mediante un lenguaje estándar que deje entender el contenido por parte de las máquinas y ofrecer los mejores resultados posibles de búsqueda.

    Implementar Rich Snippets en HTML mejora la manera en que su página pueda ser mostrada en las Search Engines Ranking Positions mediante la mejora de los fragmentos enriquecidos que se muestran bajo el título de la página.

    es el sitio oficial donde podrá hallar las últimas actualizaciones, una guía para la implementación de esquemas y preguntas frecuentes.

    Back to top

    18) Configurar URL's con parámetros en Search Console

    Normalmente, las URLs con parámetros se generan en páginas webs que ofrecen diferentes opciones de clasificación como Ordenar = relevancia, tipo = ascendiente, paginación y así consecutivamente, que también se debe tomar en consideración como parámetros de URL.

    Por lo general, todo depende de la configuración del sitio, la arquitectura y la tecnología que se utilice para mostrar u ordenar la información.

    Una buena práctica posicionamiento web es la generación de URL-friendly, cuya URL no contiene parámetros dinámicos y contiene las palabras clave por las que se quiere posicionar.

    A continuación vamos a ver como gestionar la crawlabilidad de las URL's con parámetros a través de Search Console.

    La administración de parámetros es una opción útil para ayudar a la indexación, vale la pena desde la perspectiva de aumento de tráfico orgánico y desindexación de páginas que se se indexan en los motores de búsqueda pero no aportan valor a la captación de nuevos usuarios en los motores de búsqueda, un caso de URL con parámetros es: /?utm_campaign=coschedule&utm_source=twitter&utm_medium=.

    Al hacer clic en Editar,en la opción del parámetro que se quiera configurar, aparecerá una interfaz donde se podrá determinar qué se quiere hacer con las URLs que contengan dicho parámetro.

    El objetivo es disminuir al mínimo el número de URL's con parámetros indexadas, de manera que sea más fácilmente rastreable por Google, lo que aumentará la frecuencia de rastreo de su sitio, y también tendrán un costo menor en el ancho de banda preciso para crawlear la información.

    Mi recomendación sería, revisar qué URLs con parámetros tiene indexados Google de su sitio y además que parámetros ha detectado en Search Console.

    Una vez identificadas las URL's con parámetros indexadas que no traigan tráfico orgánico, desindexar las mismas. Paralelamente, condigurar las URL's con parámetros para la crawlabilidad de indexabilidad.

    Back to top

    19) Deshabilita CSS y comprueba la información en la página es la misma para Googlebot y para el usuario

    En este caso no nos referimos a que haya información que se carga en el navegador, mas que los usuarios no ven.

    Nos referimos a que la información que se carga en el DOM, tiene que ser exactamente la misma que los crawlers procesan, o sea, que no se esté cargando ninguna información extra en la plantilla de forma que se repita en secciones de la web donde no es útil.

    Para poder hacer esta comprobación es necesario tener instalado, ya sea en Mozilla Firefox o Chrome la extensión "". Una vez se instale, ir a la sección: CSS>>Disable all styles

    El objetivo es hallar aquellas imágenes, textos o contenidos que se cargan al hacer la petición HTTP de la página, o sea al cargar la misma, pero cuya información no se ve en el navegador por el usuario.

    Estos fallos acostumbran a ser comunes en Content Management System o bien plataformas que utilizan un sistema de plantillas, de forma que se cargan en todas y cada una de las páginas, pero que no aportan valor al contenido, consumen recursos y no los bots lo pueden interpretar como.

    Igualmente pueden estar presentes en webs que estén desarrolladas con implementaciones AJAX, de forma que la información se cargue mas esté oculta y que se muestre cuando se ejecuta un acontecimiento en Javascript. Una vez el usuario interactua con la página web y hace click, scroll o bien cualquiera otra interactuación, la información será mostrada o bien ocultada.

    En estos casos, es necesarioy comprobar la información cacheada por Google.

    Back to top

    20) Actualización del Sitemap XML vs Sitemap HTML vs RSS

    Seguro que esta cuestión levanta un poco de controversia, como puedes comprobar en la imagen, el Sitemap XML en la web de Brandemia lleva sin actualizarse más de un año y prosigue incrementando el tráfico orgánico, como puedes ver aquí:

    La vía alternativa para la crawlabilidad e indexación de la página web ha sido esta:

    Es una buena práctica la actualización del fichero Sitemap XML y hacer ping en Search Console en el caso de que no exista otra opción alternativa, como puede ser un Sitemap HTML.

    Cada posicionamiento en buscadores aplica los cambios que estima que serán mejores basándonos en las características del CMS, el control que tenga sobre la parte técnica o bien las limitaciones que haya por la parte del cliente a la hora de implementar las distintas opciones para el posiciconamiento en buscadores.

    La implementación de un Sitemap que permita prosperar desde el posicionamiento web en buscadores Técnico la crawlabilidad y también indexabilidad de cualquier sitio es un factor esencial a la hora de realizar una estrategia o bien una campaña de search.

    Independientemente de cual sea la opción escogida se aconseja como una buena práctica para mejorar el posicionamiento SEO la implementación de cualquiera de las alternativas presentadas para poder lograr mejores resultados en las búsquedas y así lograr que nuestros proyectos obtengan una mejor visibilidad en los diferentes buscadores web.

    Back to top
    Share icon

    Solicita información sin compromiso

    Políticas de privacidad

    De conformidad con lo dispuesto en la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal (LOPD) y su normativa de desarrollo, el responsable del sitio web, CITIFACE MANAGEMENT, S.L., en cumplimiento de lo dispuesto en el art. 5 y 6 de la LOPD, informa a todos los usuarios del sitio web www.citiface.com que faciliten, o vayan a facilitar sus datos personales, que estos serán incorporados a un fichero que se encuentra debidamente inscrito en la Agencia Española de Protección de Datos.

    Consentimiento del usuario:
    Mediante la marcación de las correspondientes casillas, en los formularios dispuestos en el sitio web para la recogida de datos, los usuarios aceptan expresamente y de forma libre e inequívoca que sus datos personales sean tratados con las finalidades y destinos que se detallarán a continuación.

    Finalidad
    Los datos que se faciliten a través del portal, se destinarán a la finalidad de responder a su solicitud de información, así como a remitirle información que consideremos que pueda ser de su interés. Incluyendo para ello medios electrónicos (email, sms, etc..). Asimismo, y si usted nos lo indica, le remitiremos a su correo electrónico nuestro boletín electrónico SEO/SEM en el que le trasladaremos recomendaciones y herramientas para la mejora de sus campañas de posicionamiento y pago por clic. Los envíos serán con carácter mensual y podrá dejar de recibirlos en cualquier momento a través del mecanismo establecido en el propio email.

    Calidad de datos
    Los datos marcados como obligatorios en el formulario que usted cumplimente, son necesarios para la prestación de un servicio óptimo al usuario y dar respuesta a sus requerimientos. En caso de que no sean facilitados todos los datos obligatorios, el prestador no garantiza la prestación de los servicios solicitados.
    El usuario será el único responsable, respecto a la veracidad y actualización de los datos aportados a través de los distintos formularios del sitio web

    Comunicación de datos a terceros
    Sus datos personales no serán cedidos, en ningún caso, a terceras compañías, y que siempre que fuera a realizarse algún tipo de cesión de datos personales, de forma previa, se solicitaría el consentimiento expreso, informado, e inequívoco por parte de los titulares. Ejercicio de derechos ARCO
    El prestador garantiza en todo caso al usuario el ejercicio de los derechos de acceso, rectificación, cancelación, información y oposición, en los términos dispuestos en la legislación vigente. Por ello, de conformidad con lo dispuesto en la LOPD, podrá ejercer sus derechos remitiendo una solicitud expresa, junto a una copia de su DNI, a través del correo electrónico: info[at]citiface.com o Calle Farell 3, 1-1. 08014 Barcelona .

    Medidas de seguridad
    Del mismo modo, el prestador, conforme a lo establecido en el Real Decreto 1720/2007, de 21 de diciembre, por el que se aprueba el Reglamento de desarrollo de la L.O. 15/1999, indica que ha adoptado todas las medidas técnicas y organizativas necesarias para garantizar la seguridad e integridad de los datos de carácter personal que trate, así como para evitar su pérdida, alteración y/o acceso por parte de terceros no autorizados.

    Menores de edad
    Se prohíbe, expresamente, a los menores de 14 años, facilitar ningún dato a través del presente sitio web, sin contar con el consentimiento y supervisión de sus padres o tutores legales.
    Si el prestador tuviera noticia acerca de la infracción de la referida prohibición, procederá a la eliminación de cualquier dato asociado al usuario en cuestión.

    Uso de cookies y del fichero de actividad
    El prestador por su propia cuenta o la de un tercero contratado para la prestación de servicios de medición, pueden utilizar cookies cuando un usuario navega por el sitio web. Las cookies son ficheros enviados al navegador por medio de un servidor web con la finalidad de registrar las actividades del usuario durante su tiempo de navegación.
    Las cookies utilizadas por el sitio web se asocian únicamente con un usuario anónimo y su ordenador, y no proporcionan por sí mismas los datos personales del usuario.
    Mediante el uso de las cookies resulta posible que el servidor donde se encuentra la web, reconozca el navegador web utilizado por el usuario con la finalidad de que la navegación sea más sencilla, permitiendo, por ejemplo, el acceso a los usuarios que se hayan registrado previamente, acceder a las áreas, servicios, promociones o concursos reservados exclusivamente a ellos sin tener que registrarse en cada visita. Se utilizan también para medir la audiencia y parámetros del tráfico, controlar el progreso y número de entradas.
    Puede Usted rechazar el tratamiento de los datos o la información rechazando el uso de cookies mediante la selección de la configuración apropiada de su navegador, sin embargo, debe Usted saber que si lo hace puede ser que no pueda usar la plena funcionabilidad de este website.
    Este sitio web utiliza Google Analytics, un servicio analítico de web prestado por Google, Inc., una compañía de Delaware cuya oficina principal está en 1600 Amphitheatre Parkway, Mountain View (California), CA 94043, Estados Unidos («Google»). Google Analytics utiliza «cookies», que son archivos de texto ubicados en su ordenador, para ayudar al website a analizar el uso que hacen los usuarios del sitio web. La información que genera la cookie acerca de su uso del website (incluyendo su dirección IP) será directamente transmitida y archivada por Google en los servidores de Estados Unidos. Google usará esta información, por cuenta nuestra, con el propósito de seguir la pista de su uso del website, recopilando informes de la actividad del website y prestando otros servicios relacionados con la actividad del website y el uso de Internet.
    Google podrá transmitir dicha información a terceros cuando así se lo requiera la legislación, o cuando dichos terceros procesen la información por cuenta de Google. Google no asociará su dirección IP con ningún otro dato del que disponga Google.
    Puede Usted rechazar el tratamiento de los datos o la información rechazando el uso de cookies mediante la selección de la configuración apropiada de su navegador, sin embargo, debe Usted saber que si lo hace puede ser que no pueda usar la plena funcionalidad de este website. Al utilizar este website Usted consiente el tratamiento de información acerca de Usted por Google en la forma y para los fines arriba indicados. En todo caso, le informamos que para instar a la cancelación de los posibles tratamientos de datos llevados a cabo por Google, deberá dirigirse a esa compañía, a tal efecto. El prestador no tiene la capacidad técnica ni legal, para proceder al cese en el tratamiento de datos fuera del ámbito delimitado por los ficheros y medios técnicos de su titularidad. Y no se le podrán exigir responsabilidades en este sentido. Para conocer más acerca de las cookies es.wikipedia.org/wiki/Cookie_(informática)

    SEMrush

    SEMrush

    SEMrush

    ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

    7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
    7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
     

    Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

    Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


    OBTEN MI INFORME GRATUITO
    5 errores que debes evitar en tu sitio web de Drupal
    Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
     

    Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

    ¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



    OBTEN MI INFORME GRATUITO