Posicionamiento en buscadores web

Posicionamiento en buscadores web

15 Jul 2020 in

El posicionamiento en buscadores, optimización en motores de búsquedao SEO(del inglés search engine optimization), es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio en la lista de resultados de,, o bien otros motores de búsqueda de internet. ​ El posicionamiento en buscadores trabaja aspectos técnicos como la optimización de la estructura y losde una web, pero también se aplica a nivel de contenidos, con el objetivo de volverlos más útiles y relevantes para los usuarios.

Back to top

1) Historia

Los administradores de páginas web y distribuidores de contenido comenzaron a optimizar sitios web en los motores de búsqueda a mediados de la década de mil novecientos noventa, tan pronto los motores de búsqueda comenzaban a clasificar la primera Internet. En un comienzo, sitios comoofrecían la inclusión a los sitios que pidiesen motu propriosu indexación, que era manual.

Al comienzo, todo cuanto los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o bien, a los diferentes motores, los que enviarían unapara inspeccionar ese sitio, extraer los vínculos cara otras páginas que tenía esa web y devolver la información recogida para ser indizada. El proceso involucra a un araña web perteneciente al motor de búsqueda, que descarga una página y la guarda en los servidores de la empresa, donde un segundo programa, conocido como indexador, extrae información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas, la relevancia de palabras específicas y todos los vínculos que contiene la página, los cuales se guardan para ser rastreados más tarde por la araña web.

Los dueños de sitios comenzaron a reconocer el valor de tener sus páginas bien posicionadas y perceptibles para los motores de búsqueda, lo que creó una ocasión para los usuarios de técnicas posicionamiento en buscadores de sombrero blanco y( white haty black hat). De acuerdo con los análisis del experto, el término optimización de motores de búsquedacomenzó a utilizarse en el mes de agosto 1997, ​ pory su compañía,, documentado en una página del sitio de la compañía.

Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las, o bien ficheros indizados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Utilizar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras proveídas por el administrador de sitio en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían ocasionar, y ocasionaron, que ciertas páginas se posicionaran muy alto para búsquedas intrascendentes. ​ Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda. ​ Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más relevancia a los sitios más antiguos.

Debido a la importancia de factores como la densidad de palabras clave, la cual dependía plenamente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fuesen falsos haría que los usuarios optasen por otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos para posicionar sitios web, tomando en cuenta factores auxiliares para que fuesen más difíciles de manipular por los administradores web.

Los estudiantes graduados en la,y, desarrollaron Backrub, un motor de búsqueda que se fundamentaba en unmatemático que puntuaba la relevancia de páginas web.fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega de manera aleatoria por la página web, y sigue vínculos de una página a otra. Realmente, esto quiere decir que ciertos vínculos son más fuertes que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio.

Page y Brin fundaronen. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los que les gustó su diseño fácil, motivado por el hecho de que los creadores no sabían HTML y se limitaron a colocar un cuadro de búsqueda y el logotipo de la compañía.

Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y estructura del sitio, velocidad de carga de la página), para permitir a Google evitar el género de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones.

Ejemplo de PR Toolbar mostrando PR8

En el año 2000 Google lanzó la, una barra de herramientas que entre otras muchas cosas mostraba la métrica pública del. El PageRank de la barra de Google va de 0 a 10, siendo 10 el máximo, una valoración alcanzada por muy pocas webs. El PageRank público se fue actualizando periódicamente hasta diciembre de dos mil trece, cuando tuvo lugar la última actualización hasta la fecha.

Aunque el PR era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular el PageRank. Mucho sitios se centraron en intercambiar, adquirir y vender vínculos, con frecuencia a gran escala. Algunos de estos sistemas, o bien granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura (técnicas de ).

En, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En el mes de junio de, Hansell, del , declaró que los motores de búsqueda estaban utilizando más de doscientos factores. Los primordiales motores de búsqueda, Google,y, no publican los algoritmos que usan para posicionar páginas web. Ciertos posicionadores o posicionamiento en buscadores han estudiado distintas formas de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

En, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas anteriores, Google ofrecía resultados adaptados para usuarios registrados. En, Bruce Clay dijo “el posicionamiento está muerto”debido a la búsqueda adaptada. Consideraba que resultaría irrelevante discutir como un sitio web se posiciona, pues su posición variaría en función de cada usuario, de cada búsqueda.

En, Google también anunció una campaña en contra de la compra de links con el propósito de prosperar posiciones en el buscador ​ y sugirió un nuevo atributo a añadir a estos enlaces comerciales, era rel="nofollow" (ejemplo de empleo <a href="" rel="nofollow">Visita esta web</a>). El atributo "nofollow" ofrece a los webmasters un modo de indicar a los motores de búsqueda "No continuar los links de esta página" o "No seguir este enlace concreto"

En 2007 Matt Cutts afirmó que el empleo de este atributo en los links internos de una web también sería válido y efectivo para eludir trasmitir PR cara páginas internas de la propia web ​. El resultado fue que hubo un uso extendido de este atributo en los enlaces internos de los sites para alterar la distribución interna del PageRank.

Dado la generalización de esta técnica por parte de los webmasters, en 2009 Google publicó que había tomado medidas para mudar la forma en que valora y contabiliza estos links nofollow en el momento de repartir el PR, y que ahora sí se tendrían en cuenta en el momento de distribuir PageRank, si bien no traspasase valor a la url de destino si se diluía el PageRank entre estos links ​. Con esto intentaba no promover que se usara este atributo nofollow con el único fin de modificar la distribución del PageRank a través de los links internos de una web.

Para poder seguir evitando la distribución de PR entre urls poco de una web, algunos SEOs y webmasters desarrollaron distintas técnicas alternativas que cambian los links nofollow, que ya antes era válido, por otras etiquetas HTML (como < span > o < div >) que Google no contabiliza como enlaces, pero que para los usuarios se comportan del mismo modo que un link. Para esto se utiliza Javascript y ofuscado la url con una codificación en ​, permitiendo controlar de este modo la distribución de PageRank sin tener que emplear el "polémico" atributo nofollow.

En diciembre de 2009, Google anunció que usaría elde todos y cada uno de los usuarios para elaborar los resultados de búsqueda.

Google Instant, búsqueda en tiempo real, fue introducido a finales deen un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de web han gastado meses o bien incluso años en optimizar un sitio para progresar su posicionamiento. Con el incremento en popularidad de las redes sociales y blogs, los primordiales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda.En febrero de, Google anunció la actualización “Panda”, la que penaliza sitios web que contengan contenido copiado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.

En abril del, Google anunció la actualización “Penguin” cuyo objetivo era penalizar a aquellos sitios que utilizaban técnicas manipuladoras para progresar sus rankings. (Spam posicionamiento SEO o bien Spam Web).

En septiembre de, Google anunció la actualización “Colibrí“, un cambio en el algoritmo diseñado para prosperar el procesamiento del lenguaje natural de Google y la comprensión semántica de páginas web. (eficiencia del).

Back to top

2) Posicionamiento natural o bien orgánico

El posicionamiento natural u orgánico es el que consigue una web de forma espontánea, sin que medie una. ​ Se basa en lao indexación que efectúan unas aplicaciones denominadaspara los. En esta indización, las arañas web recorren las páginas web y guardan las palabras clave relevantes en.

El interés del webmasteres optimizar la estructura de una web y el contenido de la misma, así como la utilización de diferentes técnicas de , o contenidos virales, aumentando la notoriedad de la página web, debido al incremento de menciones. El objetivo es aparecer en las situaciones más altas posibles de los resultados de búsqueda orgánica para una o bien múltiples palabras claves específicas.

La optimización se realiza en dos sentidos:

  • Interna / On-page SEO: A través de mejoras en el contenido. Mejoras técnicas en el código. Accesibilidad., etc.
  • Externa / Off-page SEO: Se busca mejorar la fama de la web mediante referencias a ella. Esto se consigue fundamentalmente a través de enlaces naturales (tráfico de referencia) y.

Los buscadores web suelen enseñar resultados orgánicos o naturales en un área [ ], a la par de resultados de pago. El posicionamiento en estas áreas de pago, precisa del pago de determinados servicios singulares, como Google Ads o Microsoft Ad Center, y se conoce como(en, search engine marketing, a menudo abreviado).

El servicio dese puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clics (número de veces que además de salir impreso nuestro anuncio, será visitado o bien clicado por el usuario).

En la siguiente imagen puede apreciarse de forma gráfica la diferencia entre el posicionamiento orgánico y pagado. En ella se señalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads, que también son conocidos como SEM (Search Engine Marketing).

Back to top

3) Técnicas para prosperar el posicionamiento

Las actividades a desarrollarse involucran tanto cambios de programación, diseño y contenidos, exactamente las mismas alineadas a las indicaciones emitidas por los motores de búsqueda como buenas prácticas. Buscadores como Google ​ y Bing ​ han emitido lineamientos al respecto.

Se divide en posicionamiento interno y externo:

3.1) Posicionamiento interno

Son mejoras que elpuede aplicar sobre el sitio en cuanto al contenido, apariencia,, etc.

  • . Desde abril de dos mil quince, en un nuevo cambio de algoritmo, se corre la voz [ ]de que Google penalizará con un descenso notable de posición en las(Search Engine Results Page, páginas de resultados de búsqueda) a aquellos sitios que carecen de adaptabilidad a dispositivos móviles. ​ Moz asegura que no es exactamente así y que si bien una web no sea adaptable, de momento, no tiene por qué descender en el ranking. [ ]
  • Que la web pueda ser fácilmente rastreada por lasde los buscadores es el paso inicial. Los ordenadores de los buscadores web tienen que tener acceso a la página web para poder procesarla y mostrarla en los buscadores web. Por esa razón, el crawl budgeto crawl rateinfluye de forma directa en el posicionamiento: cuanto mayor es la frecuencia de rastreo de una web y más páginas rastrea, mejor es su posicionamiento. Este punto englobaría puntos en los que se detalla más abajo, como pueden ser dejar las páginas más alcanzables, eliminar contenido copiado, arreglar fallos 4xx, 5xx, 7xx, hacer las webs lo más ligeras posible para que el rastreador consuma recursos más limitados.
  • Crear contenidos de calidad. Es común el dicho de: "el contenido es rey". Desde 2015, Google asigna cada vez más relevancia a la llamada "experiencia web del usuario", siendo capaz de medirla en términos estadísticos siempre que dicha web concretamente haya sido indizada por este buscador. La experiencia del usuario tiene relación, sobre todo, con la adaptabilidad a dispositivos móviles, el contenido, mentado antes, la usabilidad y la velocidad del tiempo de carga, entre otros muchos factores. Del mismo modo, la estructura de links internos es clave para la usabilidad y la(UX, Usuario eXperience).
  • Realizar la estructuración y el diseño de una página web pensando en el posicionamiento, significa prestar atención a que sea funcional, fácil de acceder y que capte la atención del usuario.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página. Cada página es una tarjeta de presentación para el buscador. Los títulos y descripciones son puntos de partida para la identificación de los términos relevantes durante la web por los buscadores web. Las mejores prácticas aconsejan redactar títulos de entre 60 y setenta caracteres.
  • Hacer la web lo másposible: limitar contenido en, o. Este tipo de contenido no permite el rastreo o bien seguimiento de la información por la parte del robot en las distintas páginas o secciones. Para ellos son un espacio plano por el cual no se puede navegar.
  • Enlazar interiormente las páginas de nuestro sitio de forma ordenada y clara. Un «» en el código (tanto el de Google como uno presente en el sitio) permitirá dar paso al buscador por las distintas secciones del lugar en forma ordenada, mejorando su visibilidad. Incluyendo los archivos RSS que también pueden ser usados como sitemaps.
  • Mejorar la experiencia del usuario con mejoras del diseño y disminución de las tasas de rebote.
  • Alojar la página web en un servidor fiable.
  • Optimizar las URL, colocamos las palabras claves más importantes y significativas para la búsqueda. URL afable o bien friendly URL.
  • Instalar un certificado SSL y utilizar enlaces HTTPS en toda la página para enlaces internos y externos.
  • Crear un diseño web limpio en publicidad y que entregue el contenido relevante en la mitad superior del sitio
  • Actualizar la página con contenido original de calidad.
  • Optimizar el tiempo de carga de una web para conseguir la reducción del ancho de banda, acrecentar la tasa de conversión y mejorar la experiencia de usuario. (o bien WPO)
  • Utilizar un adecuado etiquetado del sitio web:
    • Utilizar negrita o cursiva en los contenidos para las palabras clave que se pretenden posicionar.
    • Utilizar las( descriptiony title) con las palabras claves, elegidas estratégicamente de antemano. La etiqueta “meta title” es el factor on-page más esencial para el posicionamiento, después del contenido general. La etiqueta “meta description” ofrece una explicación breve del contenido de una página y es por norma general usada por los buscadores para mostrar un breve resumen del contenido de la página en los resultados de búsqueda.
    • Utilizar las cabeceras h1, h2, h3, etcétera para resaltar términos importantes, o bien títulos. Se deberían usar palabras claves en las cabeceras.
  • Utilización dey sus diferentes secciones (encabezado, cuerpo), así como XHTML5, etc.
  • Densidad de palabras claves: El número de veces que una palabra clave se repite dentro del texto debe estar entre el 1 por ciento y el cuatro por cien . Usar sinónimos para esas palabras claves, y hacerlo de forma natural.
  • Utilización de(redes de distribución de contenidos), tanto para la velocidad de carga para la mejora de la experiencia de usuario en diferentes lugares del mundo.
  • Etiquetas y, por servirnos de un ejemplo, a través de un.
  • Utilizar negrita o cursiva en los contenidos para las palabras clave que se pretenden posicionar.
  • Utilizar las( descriptiony title) con las palabras claves, elegidas estratégicamente de antemano. La etiqueta “meta title” es el factor on-page más importante para el posicionamiento, después del contenido general. La etiqueta “meta description” ofrece una explicación breve del contenido de una página y es en general utilizada por los buscadores para enseñar un breve resumen del contenido de la página en los resultados de búsqueda.
  • Utilizar las cabeceras h1, h2, h3, etcétera para destacar términos importantes, o bien títulos. Se deberían emplear palabras claves en las cabeceras.

3.2) Posicionamiento externo

Son aquellas técnicas que se emplean para progresar la fama de la web en los medios en línea. Generalmente, se busca conseguir menciones en la red, en forma de enlace, de la página web a optimizar.

  • Conseguir que otras webs de temática relacionada enlacen con tu página web. Para ello es interesante efectuar una búsqueda para aquellos términos que consideras deberían llevar tráfico a tu web y estudiar cuáles de ellos tienen un contenido complementario. Si por ejemplo quieres posicionarte por el término "peluquería Madrid" puede ser interesante procurar conseguirde peluquerías de otras ciudades.
  • Ahora mismo hay cientos de redes sociales, por ejemplo,y,, en las que poder participar y conseguir visitas de nuestros nuevos «amigos». Para, la red social que mayor impacto tiene en el posicionamiento web en buscadores es, que ha tomado el sitio en importancia dey. [ ]
  • Darse de alta en directorios esenciales comoy. Los directorios han perdido mucho interés en los motores de búsqueda pero prosiguen siendo un buen punto de inicio para conseguir links o un primer rastreo de tu web por los buscadores web. [ ]Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las web añadidas, mas también ralentiza y dificulta su inclusión.
  • Registrarse y participar en foros de discusión, de preferencia en foros temáticos relacionados a la actividad de su página web. La usual participación debe ir acompañado de aporte real y valioso como para ser tomado en cuenta como un usuario calificado, el detalle del éxito para conseguir visitas y aumentar el posicionamiento es el enlace cara su página web presentado en su firma. [ ]
  • Escribir artículos en otros sitios. Los artículos son un método poderosísimo para mejorar el posicionamiento y lograr atraer visitas. Si puedes redactar unos artículos de un curso, de los trucos del día, la utilidad del producto de tu página web. [ ]
  • Intercambiar contenido.
  • Nombre del dominio, sin determinar a qué nivel de influencia sobre el posicionamiento.
Back to top

4) Rasgos de los algoritmos de búsqueda

Rasgos públicos:Entiéndase por estos a los que son de índole declarada por los administradores o creadores de tal algoritmo, por servirnos de un ejemplo podemos saber que el algoritmo detienes determinados aspectos técnicos que penalizan determinados accionares de los administradores web o bien redactores de contenido. Un caso práctico es Google Panda, que tiene como principal objetivo eliminar contenido copiado, duplicado o bien irrelevante por ser consideradotambién llamado Spam posicionamiento en buscadores. Google Penguinen cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etc. También vé un factor humano esencial para el Seo como es porcentaje de rebote de una página web.

Rasgos privados:Son aquellos que son mantenidos en secretos por los autores o administradores de dicho contenido, esto es a fin de que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web.

Rasgos sospechados:Son aquellos rasgos secretos distinguidos en la práctica misma de la actividad, los mismos no son de carácter oficial, mas al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por servirnos de un ejemplo se ha descubierto que pese a todo lo dicho por los creadores lo más esencial para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.

Back to top

5) Linkbuilding

Diagrama que representa el linkbuilding

Linkbuilding o construcción de enlaces, es una técnica de posicionamiento web en buscadores que consiste en lograr que otras páginas web enlacen a la página que interesa que losconsideren relevante y la posicionen mejor en sus . La técnica puede hacerse de forma natural, cuando otras webs enlazan sin previo acuerdo por algún hecho o dicho, o de manera artificial, cuando se simula que los enlaces se han conseguido de manera natural.

Conseguir links de forma artificial (link building) es una técnica que infringe las indicaciones para administradores web de Google. Está considerada una práctica "blackhat" y puede conllevar la pérdida de posiciones de una web por penalización por links.

Esta se fundamenta en el concepto de que uno de los factores que se incluyen dentro de la evaluación del ranking de una página es la cantidad de enlaces entrantes que tiene una página, término basado en el hecho de que el número de enlaces entrantes constituía uno de los factores evaluados enen mil novecientos noventa y nueve por Google

Las ventajas son:

  • Posibilidad de medir la demanda y cantidad de personas que están buscando a través de una palabra clave
  • Efectividad del posicionamiento
  • Posicionamiento de la marca o

5.1) Técnicas

  • Alta en directorios: consiste en dar de alta la página web en diferentes directorios, así sean generales o temáticos. Significa introducir los links en directorios relevantes y elegir la categoría que mejor se adapte a la página. Desde dos mil trece, Google no toma en cuenta los directorios [ ], lo que ha inutilizado esta estrategia.
  • Directorios de artículos: consiste en redactar artículos para publicarlos en directorios que, a cambio del contenido, permiten incluir links hacia una web.
  • : se trata de guardar aquello que interesa posicionar en los buscadores en los diferentes webs de bookmarking. [ ]
  • : es una de las técnicas más valorada por los buscadores web pero una de las más difíciles de lograr, en tanto que solo se logran cientos de enlaces a un artículo si este verdaderamente aporta valor.
  • Intercambio de enlaces: una buena forma de conseguir links y una de las primeras que se empezaron a emplear. También hay muchos tipos de intercambios y servicios.
  • Compra de enlaces: Más efectiva que el intercambio de links mas también más cara. Según la política oficial deesta forma de lograr links es penalizable. [ ]
  • Enlaces desde foros: Otra forma para edificar enlaces es de foros, agregando el link (o link) desde la firma del foro de discusión.
  • Otras técnicas: envío de enlaces a blogs, a redes sociales, escribir revisiones, notas de prensa, entre otros.

5.2) Tiempo

En promedio quince horas [ ]se utiliza para realizar linkbuilding. Sin embargo, esto depende de la capacidad del proyecto, en todo caso se [ ]recomienda siempre y en toda circunstancia tener un comportamiento natural puesto que el buscador/es pueden sospechar de estrategias utilizadas para obtener mayor cantidad de enlaces no-naturales en menor tiempo, lo que conlleva a una penalización por la parte del buscador hacia la web que efectúa estas técnicas.

Comentarios en artículos: otra forma, no menos esencial, es la de generar desde comentarios de artículos, es también una de las formas más fáciles de conseguir links. Google da prioridad a los enlaces que hay en los comentarios de alguna entrada, [ ]y los reconoce como un backlink válido. [ ]Los comentarios en artículos siempre y en toda circunstancia son aprobados o rechazados por un .

Compra de enlaces: los links de pago o bien, son utilizados por gran cantidad de especialistas en posicionamiento web en buscadores y con el fin de ahorrarse tiempo buscando ellos mismos los enlaces hacia sus sitios. Muchos sitios en línea se dedican en venta de enlaces con alto.por su parte considera esta técnica como black hat SEOtambién y por consiguiente penaliza a quienes lo hacen. [ ]

5.3) Tipos de enlaces

Tipos de:

  • Comentarios en blogs
  • Firmas de perfil en foros
  • Conseguir un enlace desde otro blog
  • Intercambio de links entre webmasters
  • Compra de
Back to top

6) Posicionamiento y la evolución de los resultados de búsqueda

Algunas de estas nuevas tecnologías son:

Back to top

7) Posicionamiento en Google

A medida que avanza la comprensión de los que los usuarios desean hallar en el buscador y lo que los administradores web ofrecen, Google ha ido actualizando ​ su algoritmo a lo largo del tiempo, lo que por su parte ha podido afectar al posicionamiento de todos los sitios en Internet sea cual sea su temática o bien sector.

7.1) 2013

Google ha llevado a cabo algunos cambios en la documentación de ayuda para los administradores web, en especial en lo que a ranking se refiere. Hasta el 27 de mayo de 2013 decía:

In general, administradores web can improve the rank of their sites by increasing the number of high-quality sites that enlace to their pages.

En general, los administradores web pueden mejorar el ranking de sus sitios aumentando el número de sitios de alta calidad que enlazan en sus páginas.

Tras los cambios, pasó a decir:

In general, administradores web cánido improve the rank of their sites by creatinghigh-quality sites that usuarios will want to use and share.

Este cambio es consistente con lo que Google desea de los administradores de sitios web: menos linkbuildingy más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. En estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se efectúan en la página, y las veces que se comparten en las redes sociales. Cabe nombrar las herramientas proporcionadas por Google y Bing, etcétera como Herramientas de Administrador web de Google y Analytics (gratis y de pago).

7.2) 2014

El veinte de mayo de 2014actualizó el algoritmo de su buscador, específicamente el «Panda» a Panda cuatro.0 ​ con lo que empresas reconocidas del campo como: PRWeb.com, BusinessWire.com, etcétera vieron reducidas sus situaciones en el buscador debido a la actualización mencionada.

7.3) 2016

En dos mil dieciseis Google incorpora el proyecto AMP ​ o. Es una iniciativacon objetivo de que el usuario acceda al contenido de una forma más rápida y fácil, de manera prácticamente instantánea, evitando demoras en la carga de los sitios. Incorporar AMP en un portal tiene un impacto positivo en el SEO para búsquedas móviles. ​ El cuatro de noviembre de 2016 Google mediante un comunicado oficial ​ indicó que indexaría los contenidos dando prioridad a las webs para móviles frente a las desktop, con lo que la utilización de AMP también afecta los resultados para las búsquedas en desktop ​.

Back to top

8) Profesionales posicionamiento web - Distribución Geográfica

A partir de una investigación realizada en Linkedin, se determinó que Estados Unidos reúne la mayor cantidad de profesionales posicionamiento en buscadores en América con casi ochocientos cuarenta y seis mil personas que se presentan como consultores, especialistas o bien personas con destrezas para realizar posicionamiento web en buscadores.También se verificó que España es el país de habla hispana con mayor cantidad de consultores posicionamiento SEO en el mundo, alcanzando más de 111 mil personas trabajando en esta industria. Por último en este estudio Brasil es el país de habla portuguesa con mayor cantidad de especialistas posicionamiento SEO, superando los 72 mil.

Back to top

9) Véase también

Back to top

10) Referencias

Back to top

11) Enlaces externos

Back to top
Share icon

ESTOS EXCLUSIVOS INFORMES GRATUITO REVELAN

7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1#
7 SECRETOS DE EXPERTOS SEO QUE TE LLEVÁN AL 1# EN GOOGLE PARA GANAR 10.000s DE TRÁFICO DE CALIDAD GRATUITO - EN SÓLO 2 MESES
 

Los 7 pasos más poderosos para disparar tu ranking orgánico para ALCANZAR Y MANTENER un impresionante tráfico orgánico es TUYO.

Consigue gratis lo que el 1% de los expertos en SEO venden por miles de euros... y el otro 99% ni siquiera sabe que existe.


OBTEN MI INFORME GRATUITO
5 errores que debes evitar en tu sitio web de Drupal
Ebook - 5 errores que debes evitar en tu sitio web de Drupal (¡podrían costarte miles de euros!)
 

Este Ebook cubre 5 terribles errores que probablemente estés cometiendo ahora mismo con tu sitio web de Drupal.

¡Nº3 TE SORPRENDERÁ! Esta lectura de 10 minutos te ahorrará miles de euros.



OBTEN MI INFORME GRATUITO