Técnicas Seo 2020

Técnicas Seo 2020

15 Jul 2020 in

1) Tecnicas SEO

Back to top

1) WPO

La reducción de solicitudes HTTP, supresión de código html, reducción de ficheros javascript,quitar los widgets laterales del weblog o bien la eliminación de elementos estáticos en el navegador son algunos de los casos que analizamos para hacer que una web cargue en menos tiempo.

Todas estas mejoras están documentadas en abundantes blogs referentes a WordPress, no obstante, en la información facilitada en los links que aparecen más abajo dispones de los cambios de código que debes hacer en tal Content Management System para que tu también puedas conseguir los resultados que hemos visto en el vídeo.

EL objetivo es aplicar aquellas medidas que permitan con un consumo mínimo de recursos, lograr el mejor resultado posible en cuanto al paso que tarda en cargarse la web, de manera indirecta se logra favorecer la experiencia de usuario.

Las implementaciones de técnicas posicionamiento seo que hacen esto posible son las que aparecen a continuación:

A las medidas de page speed señaladas arriba, la eliminación de widgets laterales Google + o Facebook lograron la reducción de prácticamente un cincuenta por cien de las solicitudes http.

Back to top

2) Indexación & Crawleo

La aplicación de técnicas avanzadas de posicionamiento SEO que aunan la combinación de optimizaciones de código, performance, interlinkado, etc para hacer que los bots visiten con más frecuencia no solo la web, sino url's específicas que nos interesa desde el punto de vista del posicionamiento orgánico.

En el vídeo puedes ver de qué forma la mejora del tiempo de carga de la página mediante la reducción de solicitudes HTTP, hace que los crawlers puedan rastrear más contenido con exactamente el mismo "crawl budget".

De este modo, la frecuencia con la que la página web es visitada aumenta debido a la reducción del tiempo de carga en el navegador de los diferentes componentes de la misma.

Analizamos como aun páginas bloqueadas por el archivo robots.txt han sido crawleadas y aparecen fallos 404 de páginas de tags y categoría de la versión anterior de Brandemia, que estaba implementada en Wordpres, y esta se migró a Drupal Trademark en Junio de dos mil catorce.

Back to top

3) Análisis de logs

Analizamos varios sitios Wordpress mediante el análisis de logs donde examinamos los mismos, ya antes y tras ejecutar optimizaciones de tiempo de carga y performance, posteriormente vemos la evolución en un espacio temporal de las URL's que se han visitado más a menudo por GoogleBot.

Igualmente analizamos 3 casos que son un rediseño web, una migración del protocolo http a https y un weblog tras incorporar los puntos comentados más arriba de WPO. Estas optimizaciones las puedes aplicar para hacer un análisis de posicionamiento en WordPress.

Descargar el fichero access_log o en su defecto access_log.processed.

Una vez se haya descargado el/los ficheros de los que se quieran examinar, se tienen que ejecutar la siguientes líneas de comandos para procesar estos ficheros.

Fuente de datos de referencia para el análisis de logs:

  • cat access_log.processed | grep Googlebot > AccesosTotalesGooglebot.txt
  • En primer sitio, dejar claro que se está procesando el archivo de logs en salvaje, no se está filtrando por fecha.

    Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se genera un fichero que recoge solo los datos de tal crawler.

  • cat AccesosTotalesGooglebot.txt | egrep -io 'GET (.*) HTTP' > HitsTotales.txt
  • De toda la información que contiene el fichero generado, solo conseguimos los datos pertinentes a las URL's que el bot ha visitado y descartamos el resto de información.

  • sort HitsTotales.txt | uniq -c > hits-agrupados-por-urls.txt
  • Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite más de una vez una misma URL, de manera que con el comando "uniq -c" se examina cuántas URLs distintas nos está rastreando.

  • head + nombre de fichero - muestra las primeras líneas del fichero
  • tail + nombre de fichero - muestra las últimas líneas del fichero
  • cat + nombre de fichero - muestra todo el contenido del fichero
  • Para cambiar la extensión del fichero y poder exportarlo y abrirlo en Excel, ejecutar el siguiente comando

  • mv hits-agrupados-por-urls.txt hits-agrupados-por-urls.csv
  • Con este comando se transforma un fichero con extensión .txt a fichero con extension .csv y de esta manera podemos exportarlo a Excel, ordenar el mismo, etc.

En primer lugar, dejar en claro que se está procesando el archivo de logs en bruto, no se está filtrando por fecha.

Con la línea de comandos ejecutada arriba solo se contabilizan los hits de "GoogleBot" en el servidor, y se genera un fichero que recoge solo los datos de dicho crawler.

De toda la información que contiene el archivo generado, solo obtenemos los datos correspondientes a las URL's que el bot ha visitado y descartamos el resto de información.

Con el comando ejecutado arriba se filtran las URls únicas a las que se accede,puede que el bot visite en más de una ocasión una misma URL, de manera que con el comando "uniq -c" se examina cuántas URLs distintas nos está rastreando.

Para cambiar la extensión del fichero y poder exportarlo y abrirlo en Excel, ejecutar el siguiente comando

Con este comando se transforma un archivo con extensión .txt a fichero con extension .csv y de este modo podemos exportarlo a Excel, ordenar exactamente el mismo, etc.

¿De qué manera quitar los espacios en blanco del archivo "hits-agrupados-por-urls.csv" de la primera columna para que se pueda ordenar y/o filtrar?

Los pasos que llevaremos a cabo para poder procesar el fichero generado desde Excel o Spreadsheets es el siguiente:

  1. Abrir el archivo hits-agrupados-por-urls.csv con un editor de texto
  2. Seleccionar todo el contenido del fichero - CTRL + A ( Pulsar las dos teclas al tiempo)
  3. Copiar el contenido escogido - CTRL + C ( Pulsar las dos teclas al mismo tiempo)
  4. Abrir la herramienta facilitada en el siguiente enlace:
  5. Asegurate de suprimir el texto que aparece inicialmente
  6. Pega el contenido seleccionado
  7. Asegurate que solo está marcada la casilla que aparece rodeada en rojo en la imagen
  8. Una vez hayas pegado el contenido, pulsar el botón marcado en verde "Remove"

    Suprimir espacios en blanco de un texto para procesar logs
  9. Los números que aparecen en la izquierda deben quedar alineados
  10. Selecciona todo de nuevo, pulsar CTRL + A (Ambas teclas al unísono)
  11. Copiar el contenido seleccionado para pegarlo en el archivo Excel - CTRL + C ( Pulsar ambas teclas al tiempo)
  12. Exportar los datos a una hoja de Excel para poder procesarlos
  13. Finalmente pégalo (CTRL + V) en un archivo Excel o Archivo Spreadsheet
  14. Una vez copiado en el archivo Excel , separar por espacios y ordenar por columnas descendentemente

Las conclusiones que se pueden sacar tras examinar los casos comentados son que el archivo robots.txt, los ficheros css y js, las imágenes y los archivos sitemap que son parte de la página web son visitados con una frecuencia mayor una vez se incorporan una serie de mejoras técnicas.

Paralelamente, sería recomendable realizar una estrategia de contenidos asociada a la implementación de las mejoras técnicas.

De este modo pueda favorecer el rankeo o la mejora en los resultados de la búsqueda de términos empleados por los usuarios o palabras clave que traigan un volumen de tráfico notable.

Back to top

4) Ranking Keywords

Analizamos dos casos de estudio para rankear términos de busca, tanto de concordancia amplia como exacta, o bien palabras clave haciendo una estrategia local aplicando mejoras o bien optimizaciones de posicionamiento SEO Técnico.

En resumen, vamos a llevar a cabo unas mejoras técnicas complementadas con una estrategia de contenidos que harán posible acrecentar el ranking de keywords en los buscadores web cualquier palabra clave o bien término concreto orientado a busca local.

Ahora resumimos la estrategia que se ha llevado a cabo para subir a primera página dos keywords a través de los siguientes pasos:

  • Creación de contenido con una mínima calidad y se sube al servidor
  • Indexación del contenido mediante Fetch as Google a través de Search Console
  • Inserción de una imagen, optimizar exactamente la misma introduciendo una palabra clave en el atributo alt
  • Crear un link desde Pinterest o bien pinear la fotografía
  • Crear contenido y/o optimar el artículo una vez a la semana
  • Insertar JSON-ld, en este caso el microformato Organization, Person y NewsArticle
  • Actualizar ó crear más contenido y actualizar la data de edición del microformato NewsArtile
  • Una vez que el contenido esté optimizado, se inserta un enlace desde la página principal para que pueda ser encontrado por los usuarios
  • Seguir creando enlaces internos y externos con anchor text long tail

En resumidas cuentas, ejecutar implementaciones de JSON-ld con una Estrategia Local a través de los microformatos, Person, Organization & NewsArticle para posicionar las landings de la página web.

Tu mismo puedes ejecutar todas y cada una estas técnicas avanzadas de posicionamiento web y progresar el SEO de tu weblog o bien negocio.

Back to top

Con los que vamos a analizar lo que pretendemos hallar son artículos o contenidos que contengas 2 o bien más palabras cerca entre ellas en las webs que los buscadores web han indexado.

El objetivo es localizar aquellos contenidos que tengan muchos enlaces, un volumen de visitas alto y tenga usuarios recurrentes. Lo que queremos lograr es crear un link en aquellos contenidos cuyas visitas son usuales en el tiempo para aprovechar el "link juice" para el link que vamos a intentar conseguir, comentario o bien mención que vamos a intentar incluir en los contenidos relacionados con el nicho en el que queramos posicionar.

Back to top

6) Técnicas de posicionamiento web 2020

Back to top

7) Respuestas a dudas en el Seminario web SEO

  • 7.1) ¿Dónde podemos obtener los archivos de logs?

  • Los ficheros de logs se pueden conseguir del servidor, ya sea a través de una conexión FTP, los puedes descargar tu mismo, o bien facilitado por el equipo de sistemas.

    Para resumir, son unos archivos que registran o bien almacenan toda la actividad que sucede en un servidor. En el caso que nos ocupa, solo nos interesaría la actividad de GoogleBot, BingBot o AppleBot.

  • 7.2) ¿Qué herramientas estas usando para poder ver los logs?

  • Las herramientas que necesitas, tanto si trabajas con Linux o bien Mac, son: línea de comandos desde el terminal o bien asimismo conocido como consola y Excel o bien Google Spreadsheet.

    Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un fichero de Excel o bien una hoja Spreadsheet y podrás ver en tu navegador los mismos datos que se han facilitado en el Seminario web.

    JSON-LD es un formato de datos de codificación que comunica entes en Internet a través de modelos de datos. Es una práctica común incorporada entre las técnicas SEO para 2020, tanto para WP, como para otros CMS o bien webs que puedes encontrar en documentación oficial.

    Se basa en el formato estándar JSON y da una forma de ayudar a los buscadores a entender entidades e interoperar a escala web. Consiste en un lenguaje que consume recursos más limitados para el procesamiento de datos en entornos de programación, servicios Web REST, y bases de datos no estructurados.

    Aquí se facilita un caso de código para el microformato Person

  • 7.3) ¿Qué significa distancia vectorial entre dos palabras en un documento?

  • Fuentes para conocer qué es la distancia vectorial entre 2 palabras en un documento:

  • 7.4) ¿Como corregir los errores 404 en Search Console?

  • En este caso, se puede hacer a través de redirecciones 301. Si trabajas con un Wordpress tienes dos opciones, instalar un complemento donde puedes gestionar las redirecciones, o bien hacer implementaciones de redirecciones 301 a través de el archivo .htaccess

    En el en el caso de que el número de errores 404 sea muy grande y se quieran suprimir todas esas URL's, otra alternativa es generar un sitemap.xml donde se listen todas de ellas. Posteriormente, hay que hacer ping al servidor y la respuesta, en vez de un doscientos OK, tendría que ser cuatrocientos diez.

    De esta forma todas y cada una los contenidos elegidos se eliminarán del índice y los contenidos no serán rastreados más.

  • 7.5) ¿Como de dificil es migrar de HTTP a HTTPS y qué peligros conlleva?

  • Inicialmente, la primera cosa que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, costo de implementación, etc.

    Aquí se facilita un tutorial detallado:

  • 7.6) ¿Podrías entrar más en detalle de las implementaciones de Performance implementadas?

  • Las consisten en cambios de código a incorporar para optimizar el tiempo de carga del WP. Del mismo modo, incluye la optimización del archivo .htaccess para reducir el tiempode carga, comprimir ficheros, suprimir elementos estáticos en el navegador, reducción de peticiones HTTP, supresión de ficheros Javascript, limpiar HTML que no aporta valor al posicionamiento SEO y otras medidas técnicas para optimizar el posicionamiento web en buscadores de WordPress.

  • 7.7) ¿Para desindexar páginas que no rastrean los bots, mas que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

  • En este caso es necesario equiparar datos de Analytics, para evaluar qué páginas traen tráfico y cuales no.

    Paralelamente analizar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

    Si un bot consume mucho tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde el punto de vista del posicionamiento orgánico, lo aconsejable es quitar la misma o hacer una redicción trescientos uno si va a aportar valor desde el punto de vista de la mejora de la crawlabilidad e indexabilidad.

  • 7.8) ¿Hasta cuando se debe de implementar la estrategia de actualización del contenido?

7.9) ¿Dónde podemos obtener los ficheros de logs?

Los ficheros de logs se pueden obtener del servidor, así sea a través de una conexión FTP, los puedes descargar tu mismo, o bien facilitado por el equipo de sistemas.

Para resumir, son unos ficheros que registran o almacenan toda la actividad que sucede en un servidor. En este caso, solo nos interesaría la actividad de GoogleBot, BingBot o bien AppleBot.

7.10) ¿Qué herramientas estas usando para poder ver los logs?

Las herramientas que necesitas, tanto si trabajas con Linux o bien Mac, son: línea de comandos desde el terminal o también conocido como consola y Excel o Google Spreadsheet.

Una vez has ejecutado los comandos facilitados en el puedes exportar los datos a un archivo de Excel o una hoja Spreadsheet y vas a poder ver en tu navegador los mismos datos que se han facilitado en el Webinar.

JSON-LD es un formato de datos de codificación que comunica entes en Internet mediante modelos de datos. Es una práctica común incorporada entre las técnicas SEO para 2020, tanto para Wordpress, para otros Content Management System o webs que puedes encontrar en documentación oficial.

Se fundamenta en el formato estándar JSON y da una forma de ayudar a los buscadores web a entender entidades y también interoperar a escala web. Consiste en un lenguaje que consume menos recursos para el procesamiento de datos en entornos de programación, servicios Web REST, y bases de datos no estructurados.

Aquí se facilita un caso de código para el microformato Person

7.11) ¿Qué significa distancia vectorial entre 2 palabras en un documento?

Fuentes para conocer qué es la distancia vectorial entre dos palabras en un documento:

7.12) ¿Como corregir los errores 404 en Search Console?

En este caso, se puede hacer a través de redirecciones trescientos uno. Si trabajas con un WordPress tienes dos opciones, instalar un plugin donde puedes gestionar las redirecciones, o hacer implementaciones de redirecciones trescientos uno mediante el fichero .htaccess

En el en el caso de que el número de fallos cuatrocientos cuatro sea muy grande y se quieran eliminar todas esas URL's, otra alternativa es producir un sitemap.xml donde se listen todas de ellas. Más tarde, hay que hacer ping al servidor y la contestación, en vez de un 200 OK, debería ser cuatrocientos diez.

De esta forma todas y cada una los contenidos escogidos se eliminarán del índice y los contenidos no van a ser rastreados más.

7.13) ¿Como de dificil es migrar de HTTP a HTTPS y qué riesgos conlleva?

Inicialmente, la primera cosa que hay que hacer es contactar con una administrador de sistemas para conocer lo que implica la instalación del certificado, redirecciones, costo de implementación, etc.

Aquí se facilita un tutorial detallado:

7.14) ¿Podrías entrar más en detalle de las implementaciones de Performance incorporadas?

Las consisten en cambios de código a incorporar para optimar el tiempo de carga del WordPress. Del mismo modo, incluye la optimización del fichero .htaccess para reducir el tiempode carga, comprimir ficheros, eliminar elementos estáticos en el navegador, reducción de solicitudes HTTP, supresión de ficheros Javascript, limpiar HTML que no aporta valor al posicionamiento SEO y otras medidas técnicas para optimar el posicionamiento en buscadores de WP.

7.15) ¿Para desindexar páginas que no rastrean los bots, pero que si que tienes algo de tráfico en webs grandes como priorizas unas y otras?

En este caso es necesario equiparar datos de Google Analytics, para valorar qué páginas traen tráfico y cuales no.

Paralelamente analizar qué páginas son rastreadas con más frecuencia por los diferentes bots (GoogleBot, BingBot, AppleBot)

Si un bot consume mucho tiempo y recursos en rastrear páginas que no traen tráfico y no nos interesa desde la perspectiva del posicionamiento orgánico, lo aconsejable es quitar la misma o hacer una redicción 301 si va a aportar valor desde el punto de vista de la mejora de la crawlabilidad y también indexabilidad.

7.16) ¿Hasta cuando se tiene que incorporar la estrategia de actualización del contenido?

El objetivo es posicionar el contenido desde una investigación anterior de volumen de búsquedas, interés de los usuarios en redes sociales, trends de búsqueda, etc

La actualización y enriquecimiento del contenido, complementado con enlaces internos y externos tendría que realizarse hasta que se logre posicionar en las primeras posiciones en los resultados de búsqueda, tanto por búsquedas de concordancia precisa, como por términos de busca de concordancia extensa.

Aquí tienes los pasos de la . Esta y otras técnicas de posicionamiento web en buscadores son útiles para aparecer más arriba en los resultados de la búsqueda.

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO