1) 1. Introducción
Cuando desarrollamos una aplicación utilizando cualquier lenguaje de programación se acepta que el código debe estar bien estructurado y organizado, así como aplicar una serie de buenas prácticas de programación para conseguir un código de calidad, óptimo y fácilmente mantenible.
Sin embargo, según mi experiencia, cuando se llega a la parte de desarrollo con lenguajes de marcado, estas pautas pasan a un segundo plano. Semeja que no existe ninguna diferencia entre el hecho de utilizar etiquetas
<span>
para introducir una data en lugar de utilizar la etiqueta
<time>
o de encerrar el título principal de la página entre etiquetas
<p>
en vez de etiquetas
<h1>
.
Nada más lejos de la realidad, toda esta mala praxis baja el nivel semántico de la web influyendo directamente en el posicionamiento orgánico de nuestra página, cosa que no le hará gracia al
product owner. Por consiguiente, se hace preciso aplicar una serie de buenas técnicas para acrecentar la calidad semántica de la página web, lo que se conoce como
SEO On-Page, mejoras que se efectúan en la propia página para conseguir un mejor posicionamiento orgánico en los resultados de los motores de búsqueda.
Lo que se consigue con un buen
SEO On-Pagees facilitar a los motores de búsqueda el proceso de indexación y posicionamiento de la página, o sea, mejora el
SERPde nuestro sitio, aumentando el tráfico orgánico hacia nuestra página web. Es preciso aclarar que para conseguir un buen posicionamiento se tienen que tener en consideración otros géneros de factores, como, por servirnos de un ejemplo, el
SEO Off-Page, que serían aquellas técnicas realizadas desde fuera de nuestro sitio, como la divulgación de contenido o bien el
link building, si bien este tema queda fuera del presente post.
2) 2. ¿Cómo marcha la indexación de páginas en Google?
Antes de avanzar exponiendo las técnicas
SEO, vamos a intentar explicar cómo trabajan los motores de búsquedas, en este caso específicamente, nos centraremos en
Google. Este motor ejecuta unos
botsllamados
spiderso
GoogleBotslos cuales recorren la red en pos de nuevas páginas o cambios en las ya existentes. Una vez detectada una nueva web, estos robots la analizan y archivan su contenido para más tarde clasificarlas en el índice de
Google.