Técnicas posicionamiento SEO 2020

Técnicas posicionamiento SEO 2020

15 Jul 2020 in

1) Tecnicas SEO

Back to top

1) WPO

La reducción de peticiones HTTP, eliminación de código html, reducción de ficheros javascript,quitar los widgets laterales del blog o bien la eliminación de elementos estáticos en el navegador son ciertos casos que analizamos para hacer que una web cargue en menos tiempo.

Todas estas mejoras están documentadas en abundantes blogs referentes a WP, sin embargo, en la información facilitada en los enlaces que aparecen más abajo dispones de los cambios de código que debes hacer en tal Content Management System para que tu también puedas lograr los resultados que hemos visto en el vídeo.

EL objetivo es aplicar aquellas medidas que permitan con un consumo mínimo de recursos, lograr el mejor resultado posible en cuanto al tiempo que tarda en cargarse la página web, de manera indirecta se consigue favorecer la experiencia de usuario.

Las implementaciones de técnicas posicionamiento seo que hacen esto posible son las que aparecen a continuación:

A las medidas de page speed destacadas arriba, la supresión de widgets laterales Google + o bien Facebook lograron la reducción de casi un cincuenta por ciento de las peticiones http.

Back to top

2) Indexación & Crawleo

La aplicación de técnicas avanzadas de posicionamiento web en buscadores que aunan la combinación de optimizaciones de código, performance, interlinkado, etc para hacer que los bots visiten con más frecuencia no solo la web, sino url's concretas que nos resulta de interés desde el punto de vista del posicionamiento orgánico.

En el vídeo puedes ver de qué forma la mejora del tiempo de carga de la página mediante la reducción de peticiones HTTP, hace que los crawlers puedan rastrear más contenido con el mismo "crawl budget".

De este modo, la frecuencia con la que la web es visitada aumenta debido a la reducción del tiempo de carga en el navegador de los diferentes componentes de exactamente la misma.

Analizamos como incluso páginas bloqueadas por el archivo robots.txt han sido crawleadas y aparecen fallos cuatrocientos cuatro de páginas de tags y categoría de la versión precedente de Brandemia, que estaba implementada en Wordpres, y esta se migró a Drupal en Junio de dos mil catorce.

Back to top

3) Análisis de logs

Analizamos varios sitios Wordpress mediante el análisis de logs donde analizamos exactamente los mismos, ya antes y tras ejecutar optimizaciones de tiempo de carga y performance, más tarde vemos la evolución en un espacio temporal de las URL's que se han visitado más a menudo por GoogleBot.

Igualmente examinamos tres casos que son un rediseño web, una migración del protocolo http a https y un weblog tras implementar los puntos comentados más arriba de WPO. Estas optimizaciones las puedes aplicar para hacer un análisis de posicionamiento en WP.

Descargar el fichero access_log o en su defecto access_log.processed.

Una vez se haya descargado el/los archivos de los que se quieran examinar, se tienen que ejecutar la siguientes líneas de comandos para procesar estos ficheros.

Fuente de datos de referencia para el análisis de logs:

  • cat access_log.processed | grep Googlebot > AccesosTotalesGooglebot.txt
  • En primer lugar, dejar en claro que se está procesando el fichero de logs en bruto, no se está filtrando por fecha.

    Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se produce un archivo que recoge solo los datos de tal crawler.

  • cat AccesosTotalesGooglebot.txt | egrep -io 'GET (.*) HTTP' > HitsTotales.txt
  • De toda la información que contiene el archivo generado, solo obtenemos los datos pertinentes a las URL's que el bot ha visitado y descartamos el resto de información.

  • sort HitsTotales.txt | uniq -c > hits-agrupados-por-urls.txt
  • Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite en más de una ocasión una misma URL, de forma que con el comando "uniq -c" se examina cuántas URLs diferentes nos está rastreando.

  • head + nombre de fichero - muestra las primeras líneas del fichero
  • tail + nombre de fichero - muestra las últimas líneas del fichero
  • cat + nombre de archivo - muestra todo el contenido del fichero
  • Para mudar la extensión del archivo y poder exportarlo y abrirlo en Excel, ejecutar el próximo comando

  • mv hits-agrupados-por-urls.txt hits-agrupados-por-urls.csv
  • Con este comando se convierte un archivo con extensión .txt a fichero con extension .csv y de esta forma podemos exportarlo a Excel, ordenar el mismo, etc.

En primer sitio, dejar en claro que se está procesando el fichero de logs en bruto, no se está filtrando por fecha.

Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se produce un fichero que recoge solo los datos de dicho crawler.

De toda la información que contiene el archivo generado, solo conseguimos los datos pertinentes a las URL's que el bot ha visitado y descartamos el resto de información.

Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite más de una vez una misma URL, de forma que con el comando "uniq -c" se examina cuántas URLs diferentes nos está rastreando.

Para mudar la extensión del archivo y poder exportarlo y abrirlo en Excel, ejecutar el próximo comando

Con este comando se transforma un fichero con extensión .txt a archivo con extension .csv y de esta manera podemos exportarlo a Excel, ordenar exactamente el mismo, etc.

¿De qué forma eliminar los espacios en blanco del archivo "hits-agrupados-por-urls.csv" de la primera columna para que se pueda ordenar y/o filtrar?

Los pasos que vamos a llevar a cabo para poder procesar el archivo generado desde Excel o Spreadsheets es el siguiente:

  1. Abrir el archivo hits-agrupados-por-urls.csv con un editor de texto
  2. Seleccionar todo el contenido del fichero - CTRL + A ( Pulsar las dos teclas al tiempo)
  3. Copiar el contenido escogido - CTRL + C ( Pulsar ambas teclas al tiempo)
  4. Abrir la herramienta facilitada en el próximo enlace:
  5. Asegurate de eliminar el texto que aparece inicialmente
  6. Pega el contenido seleccionado
  7. Asegurate que solo está marcada la casilla que aparece rodeada en colorado en la imagen
  8. Una vez hayas pegado el contenido, pulsar el botón marcado en verde "Remove"

    Eliminar espacios en blanco de un texto para procesar logs
  9. Los números que aparecen en la izquierda tienen que quedar alineados
  10. Selecciona todo nuevamente, pulsar CTRL + A (Ambas teclas al unísono)
  11. Copiar el contenido elegido para pegarlo en el archivo Excel - CTRL + C ( Pulsar ambas teclas al mismo tiempo)
  12. Exportar los datos a una hoja de Excel para poder procesarlos
  13. Finalmente pégalo (CTRL + V) en un fichero Excel o bien Archivo Spreadsheet
  14. Una vez copiado en el archivo Excel , separar por espacios y ordenar por columnas descendentemente

Las conclusiones que se pueden sacar tras examinar los casos comentados son que el fichero robots.txt, los archivos css y js, las imágenes y los ficheros sitemap que forman parte de la web son visitados con una frecuencia mayor una vez se implementan una serie de mejoras técnicas.

Paralelamente, sería aconsejable realizar una estrategia de contenidos asociada a la implementación de las mejoras técnicas.

De este modo pueda favorecer el rankeo o bien la mejora en los resultados de la búsqueda de términos usados por los usuarios o bien palabras clave que traigan un volumen de tráfico notable.

Back to top

4) Ranking Keywords

Analizamos 2 casos de estudio para posicionar términos de búsqueda, tanto de concordancia amplia como exacta, o palabras clave realizando una estrategia local aplicando mejoras o bien optimizaciones de SEO Técnico.

En resumen, llevaremos a cabo unas mejoras técnicas complementadas con una estrategia de contenidos que harán posible aumentar el ranking de keywords en los buscadores web cualquier palabra clave o término específico orientado a búsqueda local.

Ahora resumimos la estrategia que se ha llevado a cabo para subir a primera página dos keywords a través de los siguientes pasos:

  • Creación de contenido con una mínima calidad y se sube al servidor
  • Indexación del contenido por medio de Fetch as Google mediante Search Console
  • Inserción de una imagen, optimizar la misma insertando una palabra clave en el atributo alt
  • Crear un link desde Pinterest o pinear la foto
  • Crear contenido y/o optimizar el artículo una vez a la semana
  • Insertar JSON-ld, en este caso el microformato Organization, Person y NewsArticle
  • Actualizar o crear más contenido y actualizar la data de edición del microformato NewsArtile
  • Una vez que el contenido esté optimado, se introduce un enlace desde la página principal para poder ser encontrado por los usuarios
  • Seguir creando links internos y externos con anchor text long tail

En resumidas cuentas, ejecutar implementaciones de JSON-ld con una Estrategia Local a través de los microformatos, Person, Organization & NewsArticle para posicionar las landings de la web.

Tu mismo puedes ejecutar todas estas técnicas avanzadas de posicionamiento en buscadores y progresar el posicionamiento web en buscadores de tu blog o bien negocio.

Back to top

Con los que vamos a examinar lo que pretendemos encontrar son artículos o contenidos que contengas dos o bien más palabras cerca entre ellas en las webs que los buscadores web han indexado.

El objetivo es encontrar aquellos contenidos que tengan muchos enlaces, un volumen de visitas alto y tenga usuarios recurrentes. Lo que deseamos conseguir es crear un enlace en aquellos contenidos cuyas visitas son usuales en el tiempo para aprovechar el "link juice" para el enlace que vamos a intentar conseguir, comentario o mención que vamos a procurar incluir en los contenidos relacionados con el nicho en el que queramos posicionar.

Back to top

6) Técnicas de posicionamiento web 2020

Back to top

7) Respuestas a dudas en el Seminario web SEO

  • 7.1) ¿Dónde podemos obtener los archivos de logs?

  • Los archivos de logs se pueden obtener del servidor, ya sea a través de una conexión FTP, los puedes descargar tu mismo, o bien facilitado por el equipo de sistemas.

    Para resumir, son unos ficheros que registran o guardan toda la actividad que sucede en un servidor. En el caso que nos ocupa, solo nos interesaría la actividad de GoogleBot, BingBot o AppleBot.

  • 7.2) ¿Qué herramientas estas utilizando para poder ver los logs?

  • Las herramientas que necesitas, tanto si trabajas con Linux o bien Mac, son: línea de comandos desde el terminal o también conocido como consola y Excel o Google Spreadsheet.

    Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un archivo de Excel o una hoja Spreadsheet y podrás ver en tu navegador los mismos datos que se han facilitado en el Seminario web.

    JSON-LD es un formato de datos de codificación que comunica entes en Internet a través de modelos de datos. Es una práctica común implementada entre las técnicas posicionamiento en buscadores para dos mil veinte, tanto para WordPress, como para otros CMS o webs que puedes hallar en documentación oficial.

    Se basa en el formato estándar JSON y proporciona una manera de ayudar a los buscadores a comprender entidades y también interoperar a escala web. Consiste en un lenguaje que consume recursos más limitados para el procesamiento de datos en ambientes de programación, servicios Web REST, y bases de datos no estructurados.

    Aquí se facilita un caso de código para el microformato Person

  • 7.3) ¿Qué significa distancia vectorial entre dos palabras en un documento?

  • Fuentes para conocer qué es la distancia vectorial entre 2 palabras en un documento:

  • 7.4) ¿Como corregir los errores cuatrocientos cuatro en Search Console?

  • En este caso, se puede hacer a través de redirecciones trescientos uno. Si trabajas con un Wordpress tienes dos opciones, instalar un plugin donde puedes administrar las redirecciones, o hacer implementaciones de redirecciones 301 mediante el archivo .htaccess

    En el en el caso de que el número de fallos 404 sea muy grande y se quieran suprimir todas y cada una esas URL's, otra alternativa es generar un sitemap.xml donde se listen todas y cada una de ellas. Más tarde, hay que hacer ping al servidor y la respuesta, en lugar de un 200 OK, tendría que ser 410.

    De esta forma todas los contenidos seleccionados se eliminarán del índice y los contenidos no serán rastreados más.

  • 7.5) ¿Como de difícil es migrar de HTTP a HTTPS y qué peligros acarrea?

  • Inicialmente, lo primero que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, costo de implementación, etc.

    Aquí se facilita un tutorial detallado:

  • 7.6) ¿Podrías entrar más en detalle de las implementaciones de Performance implementadas?

  • Las consisten en cambios de código a incorporar para optimar el tiempo de carga del Wordpress. Igualmente, incluye la optimización del fichero .htaccess para reducir el tiempode carga, comprimir ficheros, eliminar elementos estáticos en el navegador, reducción de peticiones HTTP, supresión de archivos Javascript, adecentar HTML que no aporta valor al posicionamiento web y otras medidas técnicas para optimizar el posicionamiento web en buscadores de Wordpress.

  • 7.7) ¿Para desindexar páginas que no rastrean los bots, pero que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

  • En este caso es necesario comparar datos de Analytics, para evaluar qué páginas traen tráfico y cuales no.

    Paralelamente examinar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

    Si un bot consume mucho tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde el punto de vista del posicionamiento orgánico, lo recomendable es suprimir exactamente la misma o hacer una redicción 301 si va a aportar valor desde la perspectiva de la mejora de la crawlabilidad e indexabilidad.

  • 7.8) ¿Hasta cuando se debe de implementar la estrategia de actualización del contenido?

7.9) ¿Dónde podemos conseguir los archivos de logs?

Los ficheros de logs se pueden conseguir del servidor, ya sea mediante una conexión FTP, los puedes descargar tu mismo, o facilitado por el equipo de sistemas.

Para resumir, son unos ficheros que registran o bien almacenan toda la actividad que sucede en un servidor. En el caso que nos ocupa, solo nos interesaría la actividad de GoogleBot, BingBot o bien AppleBot.

7.10) ¿Qué herramientas estas usando para poder ver los logs?

Las herramientas que necesitas, tanto si trabajas con Linux o bien Mac, son: línea de comandos desde el terminal o también conocido como consola y Excel o bien Google Spreadsheet.

Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un fichero de Excel o una hoja Spreadsheet y podrás ver en tu navegador exactamente los mismos datos que se han facilitado en el Webinar.

JSON-LD es un formato de datos de codificación que comunica entes en Internet por medio de modelos de datos. Es una práctica común implementada entre las técnicas posicionamiento SEO para dos mil veinte, tanto para WP, para otros Content Management System o bien webs que puedes localizar en documentación oficial.

Se fundamenta en el formato estándar JSON y proporciona una manera de asistir a los buscadores a comprender entidades y también interoperar a escala web. Consiste en un lenguaje que consume recursos más limitados para el procesamiento de datos en ambientes de programación, servicios Web REST, y bases de datos no estructurados.

Aquí se facilita un caso de código para el microformato Person

7.11) ¿Qué es lo que significa distancia vectorial entre dos palabras en un documento?

Fuentes para conocer qué es la distancia vectorial entre dos palabras en un documento:

7.12) ¿Como corregir los fallos cuatrocientos cuatro en Search Console?

En este caso, se puede hacer a través de redirecciones trescientos uno. Si trabajas con un Wordpress tienes dos opciones, instalar un complemento donde puedes administrar las redirecciones, o hacer implementaciones de redirecciones trescientos uno mediante el archivo .htaccess

En el caso de que el número de fallos 404 sea muy grande y se quieran quitar todas esas URL's, otra opción es generar un sitemap.xml donde se alisten todas de ellas. Posteriormente, hay que hacer ping al servidor y la respuesta, en lugar de un 200 OK, tendría que ser cuatrocientos diez.

De esta forma todas los contenidos seleccionados se eliminarán del índice y los contenidos no van a ser rastreados más.

7.13) ¿Como de dificil es migrar de HTTP a HTTPS y qué riesgos conlleva?

Inicialmente, lo primero que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, coste de implementación, etc.

Aquí se facilita un tutorial detallado:

7.14) ¿Podrías entrar más en detalle de las implementaciones de Performance implementadas?

Las consisten en cambios de código a incorporar para optimizar el tiempo de carga del WordPress. Igualmente, incluye la optimización del archivo .htaccess para reducir el tiempode carga, comprimir ficheros, suprimir elementos estáticos en el navegador, reducción de peticiones HTTP, supresión de ficheros Javascript, limpiar HTML que no aporta valor al posicionamiento en buscadores y otras medidas técnicas para optimar el posicionamiento web en buscadores de WordPress.

7.15) ¿Para desindexar páginas que no rastrean los bots, mas que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

En este caso es necesario cotejar datos de Google Analytics, para evaluar qué páginas traen tráfico y cuales no.

Paralelamente examinar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

Si un bot consume bastante tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde el punto de vista del posicionamiento orgánico, lo aconsejable es eliminar la misma o hacer una redicción 301 si va a aportar valor desde el punto de vista de la mejora de la crawlabilidad y también indexabilidad.

7.16) ¿Hasta cuando se debe implementar la estrategia de actualización del contenido?

El objetivo es posicionar el contenido desde una investigación previa de volumen de buscas, interés de los usuarios en redes sociales, trends de búsqueda, etc

La actualización y enriquecimiento del contenido, complementado con enlaces internos y externos tendría que llevarse a cabo hasta que se logre posicionar en las primeras posiciones en los resultados de búsqueda, tanto por búsquedas de concordancia precisa, como por términos de busca de concordancia extensa.

Aquí tienes los pasos de la . Esta y otras técnicas de posicionamiento web en buscadores son útiles para aparecer más arriba en los resultados de la búsqueda.

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO