Técnicas posicionamiento web dos mil veinte

Técnicas posicionamiento web dos mil veinte

15 Jul 2020 in

1) Tecnicas SEO

Back to top

1) WPO

La reducción de solicitudes HTTP, eliminación de código html, reducción de archivos javascript,quitar los widgets laterales del weblog o la eliminación de elementos estáticos en el navegador son ciertos casos que analizamos para hacer que una web cargue en menos tiempo.

Todas estas mejoras están documentadas en numerosos weblogs referentes a WordPress, sin embargo, en la información facilitada en los enlaces que aparecen más abajo dispones de los cambios de código que debes hacer en dicho CMS a fin de que tu asimismo puedas conseguir los resultados que hemos visto en el vídeo.

EL objetivo es aplicar aquellas medidas que permitan con un consumo mínimo de recursos, conseguir el mejor resultado posible cuando al paso que tarda en cargarse la página web, de forma indirecta se logra favorecer la experiencia de usuario.

Las implementaciones de técnicas posicionamiento seo que hacen esto posible son las que aparecen a continuación:

A las medidas de page speed destacadas arriba, la eliminación de widgets laterales Google + o bien Fb consiguieron la reducción de casi un cincuenta por cien de las solicitudes http.

Back to top

2) Indexación & Crawleo

La aplicación de técnicas avanzadas de posicionamiento web en buscadores que aunan la combinación de optimizaciones de código, performance, interlinkado, etc para hacer que los bots visiten con más frecuencia no solo la web, sino más bien url's concretas que nos interesa desde el punto de vista del posicionamiento orgánico.

En el vídeo puedes ver de qué manera la mejora del tiempo de carga de la página mediante la reducción de solicitudes HTTP, hace que los crawlers puedan rastrear más contenido con el mismo "crawl budget".

De este modo, la frecuencia con la que la web es visitada aumenta debido a la reducción del tiempo de carga en el navegador de los diferentes componentes de la misma.

Analizamos como incluso páginas bloqueadas por el fichero robots.txt han sido crawleadas y aparecen errores 404 de páginas de tags y categoría de la versión precedente de Brandemia, que estaba implementada en Wordpres, y esta se migró a Drupal Trademark en Junio de 2014.

Back to top

3) Análisis de logs

Analizamos varios sitios WordPress mediante el análisis de logs donde examinamos exactamente los mismos, ya antes y tras ejecutar optimizaciones de tiempo de carga y performance, más tarde vemos la evolución en un espacio temporal de las URL's que se han visitado más a menudo por GoogleBot.

Igualmente examinamos tres casos que son un rediseño web, una migración del protocolo http a https y un blog tras implementar los puntos comentados más arriba de WPO. Estas optimizaciones las puedes aplicar para hacer un análisis de posicionamiento en WordPress.

Descargar el fichero access_log o en su defecto access_log.processed.

Una vez se haya descargado el/los ficheros de los que se quieran examinar, se deben ejecutar la siguientes líneas de comandos para procesar estos ficheros.

Fuente de datos de referencia para el análisis de logs:

  • cat access_log.processed | grep Googlebot > AccesosTotalesGooglebot.txt
  • En primer sitio, dejar en claro que se está procesando el archivo de logs en bruto, no se está filtrando por data.

    Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se produce un fichero que recoge solo los datos de tal crawler.

  • cat AccesosTotalesGooglebot.txt | egrep -io 'GET (.*) HTTP' > HitsTotales.txt
  • De toda la información que contiene el fichero generado, solo obtenemos los datos correspondientes a las URL's que el bot ha visitado y descartamos el resto de información.

  • sort HitsTotales.txt | uniq -c > hits-agrupados-por-urls.txt
  • Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite más de una vez una misma URL, de forma que con el comando "uniq -c" se analiza cuántas URLs distintas nos está rastreando.

  • head + nombre de archivo - muestra las primeras líneas del fichero
  • tail + nombre de fichero - muestra las últimas líneas del fichero
  • cat + nombre de fichero - muestra todo el contenido del fichero
  • Para cambiar la extensión del fichero y poder exportarlo y abrirlo en Excel, ejecutar el siguiente comando

  • mv hits-agrupados-por-urls.txt hits-agrupados-por-urls.csv
  • Con este comando se convierte un archivo con extensión .txt a archivo con extension .csv y de esta forma podemos exportarlo a Excel, ordenar el mismo, etc.

En primer lugar, dejar en claro que se está procesando el archivo de logs en bárbaro, no se está filtrando por data.

Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se produce un fichero que recoge solo los datos de tal crawler.

De toda la información que contiene el archivo generado, solo obtenemos los datos correspondientes a las URL's que el bot ha visitado y descartamos el resto de información.

Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite más de una vez una misma URL, de forma que con el comando "uniq -c" se examina cuántas URLs distintas nos está rastreando.

Para mudar la extensión del archivo y poder exportarlo y abrirlo en Excel, ejecutar el siguiente comando

Con este comando se convierte un archivo con extensión .txt a fichero con extension .csv y así podemos exportarlo a Excel, ordenar exactamente el mismo, etc.

¿De qué manera quitar los espacios en blanco del fichero "hits-agrupados-por-urls.csv" de la primera columna a fin de que se pueda ordenar y/o filtrar?

Los pasos que vamos a llevar a cabo para poder procesar el archivo generado desde Excel o Spreadsheets es el siguiente:

  1. Abrir el fichero hits-agrupados-por-urls.csv con un editor de texto
  2. Seleccionar todo el contenido del fichero - CTRL + A ( Pulsar ambas teclas al mismo tiempo)
  3. Copiar el contenido seleccionado - CTRL + C ( Pulsar las dos teclas al mismo tiempo)
  4. Abrir la herramienta facilitada en el próximo enlace:
  5. Asegurate de eliminar el texto que aparece inicialmente
  6. Pega el contenido seleccionado
  7. Asegurate que solo está marcada la casilla que aparece rodeada en colorado en la imagen
  8. Una vez hayas pegado el contenido, pulsar el botón marcado en verde "Remove"

    Eliminar espacios en blanco de un texto para procesar logs
  9. Los números que aparecen en la izquierda tienen que quedar alineados
  10. Selecciona todo nuevamente, pulsar CTRL + A (Las dos teclas a la vez)
  11. Copiar el contenido escogido para pegarlo en el archivo Excel - CTRL + C ( Pulsar ambas teclas al tiempo)
  12. Exportar los datos a una hoja de Excel para poder procesarlos
  13. Finalmente pégalo (CTRL + V) en un fichero Excel o bien Archivo Spreadsheet
  14. Una vez copiado en el fichero Excel , separar por espacios y ordenar por columnas descendentemente

Las conclusiones que se pueden sacar tras examinar los casos comentados son que el fichero robots.txt, los archivos css y js, las imágenes y los ficheros sitemap que son parte de la página web son visitados con una frecuencia mayor una vez se incorporan una serie de mejoras técnicas.

Paralelamente, sería recomendable llevar a cabo una estrategia de contenidos asociada a la implementación de las mejoras técnicas.

De este modo pueda favorecer el posiciono o la mejora en los resultados de la búsqueda de términos empleados por los usuarios o bien palabras clave que traigan un volumen de tráfico notable.

Back to top

4) Ranking Keywords

Analizamos 2 casos de estudio para rankear términos de busca, tanto de concordancia amplia como precisa, o bien palabras clave llevando a cabo una estrategia local aplicando mejoras u optimizaciones de posicionamiento web en buscadores Técnico.

En resumen, llevaremos a cabo unas mejoras técnicas complementadas con una estrategia de contenidos que van a hacer posible aumentar el ranking de keywords en los motores de búsqueda cualquier palabra clave o término concreto orientado a búsqueda local.

Ahora resumimos la estrategia que se ha llevado a cabo para subir a primera página 2 palabras clave mediante los siguientes pasos:

  • Creación de contenido con una mínima calidad y se sube al servidor
  • Indexación del contenido mediante Fetch as Google mediante Search Console
  • Inserción de una imagen, optimar la misma introduciendo una palabra clave en el atributo alt
  • Crear un link desde Pinterest o bien pinear la foto
  • Crear contenido y/o optimar el artículo una vez a la semana
  • Insertar JSON-ld, en este caso el microformato Organization, Person y NewsArticle
  • Actualizar o crear más contenido y actualizar la data de edición del microformato NewsArtile
  • Una vez que el contenido esté optimado, se introduce un enlace desde la página principal para que pueda ser encontrado por los usuarios
  • Seguir creando links internos y externos con anchor text long tail

En resumidas cuentas, ejecutar implementaciones de JSON-ld con una Estrategia Local mediante los microformatos, Person, Organization & NewsArticle para posicionar las landings de la web.

Tu mismo puedes ejecutar todas estas técnicas avanzadas de posicionamiento SEO y prosperar el posicionamiento web de tu weblog o negocio.

Back to top

Con los que vamos a analizar lo que pretendemos encontrar son artículos o bien contenidos que contengas 2 o más palabras cerca entre ellas en las webs que los buscadores web han indizado.

El objetivo es encontrar aquellos contenidos que tengan muchos enlaces, un volumen de visitas alto y tenga usuarios recurrentes. Lo que deseamos lograr es crear un enlace en aquellos contenidos cuyas visitas son frecuentes en el tiempo para aprovechar el "enlace juice" para el enlace que vamos a procurar conseguir, comentario o mención que vamos a intentar incluir en los contenidos relacionados con el nicho en el que deseemos posicionar.

Back to top

6) Técnicas de SEO 2020

Back to top

7) Respuestas a dudas en el Seminario web SEO

  • 7.1) ¿Dónde podemos conseguir los ficheros de logs?

  • Los archivos de logs se pueden obtener del servidor, ya sea a través de una conexión FTP, los puedes descargar tu mismo, o facilitado por el equipo de sistemas.

    Para resumir, son unos ficheros que registran o bien guardan toda la actividad que sucede en un servidor. En el caso que nos ocupa, solo nos interesaría la actividad de GoogleBot, BingBot o bien AppleBot.

  • 7.2) ¿Qué herramientas estas usando para poder ver los logs?

  • Las herramientas que precisas, tanto si trabajas con Linux o bien Mac, son: línea de comandos desde el terminal o asimismo conocido como consola y Excel o Google Spreadsheet.

    Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un archivo de Excel o una hoja Spreadsheet y vas a poder ver en tu navegador los mismos datos que se han facilitado en el Seminario web.

    JSON-LD es un formato de datos de codificación que comunica entes en Internet por medio de modelos de datos. Es una práctica común incorporada entre las técnicas posicionamiento web en buscadores para 2020, tanto para WordPress, para otros CMS o webs que puedes hallar en documentación oficial.

    Se basa en el formato estándar JSON y da una forma de asistir a los buscadores a entender entidades y también interoperar a escala web. Consiste en un lenguaje que consume menos recursos para el procesamiento de datos en ambientes de programación, servicios Web REST, y bases de datos no estructurados.

    Aquí se facilita un ejemplo de código para el microformato Person

  • 7.3) ¿Qué es lo que significa distancia vectorial entre 2 palabras en un documento?

  • Fuentes para conocer qué es la distancia vectorial entre dos palabras en un documento:

  • 7.4) ¿Como corregir los fallos cuatrocientos cuatro en Search Console?

  • En este caso, se puede hacer a través de redirecciones trescientos uno. Si trabajas con un WP tienes dos opciones, instalar un complemento donde puedes gestionar las redirecciones, o bien hacer implementaciones de redirecciones 301 a través de el archivo .htaccess

    En el en caso de que el número de fallos 404 sea muy grande y se quieran suprimir todas esas URL's, otra opción es producir un sitemap.xml donde se listen todas de ellas. Más tarde, hay que hacer ping al servidor y la respuesta, en vez de un 200 OK, debería ser cuatrocientos diez.

    De esta forma todas los contenidos seleccionados se suprimirán del índice y los contenidos no serán rastreados más.

  • 7.5) ¿Como de dificil es migrar de HTTP a HTTPS y qué riesgos conlleva?

  • Inicialmente, lo primero que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, coste de implementación, etc.

    Aquí se facilita un tutorial detallado:

  • 7.6) ¿Podrías entrar más en detalle de las implementaciones de Performance incorporadas?

  • Las consisten en cambios de código a incorporar para optimizar el tiempo de carga del Wordpress. Del mismo modo, incluye la optimización del archivo .htaccess para reducir el tiempode carga, comprimir ficheros, eliminar elementos estáticos en el navegador, reducción de peticiones HTTP, supresión de archivos Javascript, limpiar HTML que no aporta valor al posicionamiento SEO y otras medidas técnicas para optimar el posicionamiento web de WordPress.

  • 7.7) ¿Para desindexar páginas que no rastrean los bots, mas que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

  • En este caso es preciso cotejar datos de Google Analytics, para valorar qué páginas traen tráfico y cuales no.

    Paralelamente analizar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

    Si un bot consume mucho tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde el punto de vista del posicionamiento orgánico, lo recomendable es quitar exactamente la misma o hacer una redicción 301 si va a aportar valor desde el punto de vista de la mejora de la crawlabilidad e indexabilidad.

  • 7.8) ¿Hasta cuando se tiene que incorporar la estrategia de actualización del contenido?

7.9) ¿Dónde podemos obtener los ficheros de logs?

Los ficheros de logs se pueden conseguir del servidor, ya sea a través de una conexión FTP, los puedes descargar tu mismo, o bien facilitado por el equipo de sistemas.

Para resumir, son unos ficheros que registran o guardan toda la actividad que sucede en un servidor. En este caso, solo nos interesaría la actividad de GoogleBot, BingBot o bien AppleBot.

7.10) ¿Qué herramientas estas usando para poder ver los logs?

Las herramientas que necesitas, tanto si trabajas con Linux o Mac, son: línea de comandos desde el terminal o también conocido como consola y Excel o Google Spreadsheet.

Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un archivo de Excel o bien una hoja Spreadsheet y vas a poder ver en tu navegador exactamente los mismos datos que se han facilitado en el Webinar.

JSON-LD es un formato de datos de codificación que comunica entes en Internet mediante modelos de datos. Es una práctica común incorporada entre las técnicas SEO para dos mil veinte, tanto para WP, para otros CMS o bien webs que puedes localizar en documentación oficial.

Se fundamenta en el formato estándar JSON y da una manera de asistir a los buscadores a comprender entidades e interoperar a escala web. Consiste en un lenguaje que consume menos recursos para el procesamiento de datos en ambientes de programación, servicios Web REST, y bases de datos no estructurados.

Aquí se facilita un ejemplo de código para el microformato Person

7.11) ¿Qué es lo que significa distancia vectorial entre dos palabras en un documento?

Fuentes para conocer qué es la distancia vectorial entre dos palabras en un documento:

7.12) ¿Como corregir los fallos 404 en Search Console?

En este caso, se puede hacer a través de redirecciones trescientos uno. Si trabajas con un WP tienes 2 opciones, instalar un complemento donde puedes administrar las redirecciones, o hacer implementaciones de redirecciones 301 mediante el archivo .htaccess

En el caso de que el número de errores cuatrocientos cuatro sea muy grande y se quieran quitar todas y cada una esas URL's, otra opción es generar un sitemap.xml donde se alisten todas de ellas. Posteriormente, hay que hacer ping al servidor y la contestación, en lugar de un doscientos OK, debería ser 410.

De esta forma todas y cada una los contenidos seleccionados se eliminarán del índice y los contenidos no serán rastreados más.

7.13) ¿Como de dificil es migrar de HTTP a HTTPS y qué riesgos conlleva?

Inicialmente, lo primero que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, coste de implementación, etc.

Aquí se facilita un tutorial detallado:

7.14) ¿Podrías entrar más en detalle de las implementaciones de Performance incorporadas?

Las consisten en cambios de código a implementar para optimizar el tiempo de carga del Wordpress. Igualmente, incluye la optimización del fichero .htaccess para reducir el tiempode carga, comprimir ficheros, eliminar elementos estáticos en el navegador, reducción de peticiones HTTP, supresión de ficheros Javascript, adecentar HTML que no aporta valor al posicionamiento web y otras medidas técnicas para optimizar el posicionamiento web en buscadores de Wordpress.

7.15) ¿Para desindexar páginas que no rastrean los bots, pero que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

En este caso es necesario comparar datos de Analytics, para valorar qué páginas traen tráfico y cuales no.

Paralelamente analizar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

Si un bot consume mucho tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde la perspectiva del posicionamiento orgánico, lo aconsejable es quitar exactamente la misma o hacer una redicción 301 si va a aportar valor desde el punto de vista de la mejora de la crawlabilidad y también indexabilidad.

7.16) ¿Hasta cuando se tiene que incorporar la estrategia de actualización del contenido?

El objetivo es posicionar el contenido a partir de una investigación previa de volumen de búsquedas, interés de los usuarios en redes sociales, trends de búsqueda, etc

La actualización y enriquecimiento del contenido, complementado con enlaces internos y externos tendría que hacerse hasta el momento en que se consiga posicionar en las primeras situaciones en los resultados de la búsqueda, tanto por búsquedas de concordancia exacta, como por términos de búsqueda de concordancia extensa.

Aquí tienes los pasos de la . Esta y otras técnicas de posicionamiento web son útiles para aparecer más arriba en los resultados de la búsqueda.

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO