Hoy te voy a hablar de Google Penguin cuatro.0, uno de los dos algoritmos más populares y cañeros de Google ...y, probablemente, el que más cefaleas ha levantado a SEOs y Administradores web.
Más sobre esto
La verdad es que, aprovechando esta actualización de Google aprovecharé para contarte vida y milagros del pingüino más famoso del planeta.
Así que, prepárate porque ésto va sobre enlaces, análisis de perfiles de links, penalizaciones, y herramientas… pero todo ésto con el Penguin cuatro.0 como telón de fondo.
Antes de empezar, me voy a permitir volver a lo esencial y recordarte brevemente de que trata Google Penguin y por qué tiene sentido que exista.
Back to top1) ¿Qué es Google Penguin?
Google Penguines un algoritmo que analiza las webs en busca de patrones de links sospechosos de haber sido generados para manipular ely evita que lo haga.
Desde que el huevo del primer pingüino de Google eclosionó (ya hace 4 años) todo cambió para los SEOs en lo que a Link building se refiere.
A lo largo del tiempo el algoritmo ha ido padeciendo actualizaciones para prosperar la forma en la que advierte y evita estas manipulaciones de Page Rank.
1.1) El origen de Penguin cuatro.0
Google Penguin nace con una misión muy simple (que sigue manteniendo tal como): evitar que produzcamos links que nos ayuden a progresar el ranking en las Search Engines Ranking Positions.
Pero “el pecado original” de todo esto lo cometió Google, puesto que, fue él quien decidió en un comienzo que los links generados cara una web eran una señal de que su contenido era relevante… y claro, los SEOs primitivos (que no eran tontos) se pusieron a generar enlaces a “tutiplén”, puesto que así mejoraban el posicionamiento en las Search Engines Ranking Positions.
Este sistema para determinar la popularidad de una página (el PR), considera los links entrantes a una página como “votos” que realizan otras páginas... pero es demasiado manipulable.
Llegó un instante en que basarse en estos criterios ya no aseguraba que los resultados ofrecidos fuesen realmente relevantes para el usuario, y por lo tanto había que buscar una solución.
Así es como nació el primer pingüino en Mountain View.
Cuando apareció el(el veinticuatro de septiembre de 2012) se presentó como un algoritmo de “spam web”, mas enseguida se le rebautizó como “Penguin”.
Un año después lanzaron la versión 2.0 del algoritmo, y en octubre de 2014.
Esta tercera actualización prometía como gran novedad: actualizaciones más usuales del algoritmo.
Se charlaba de que podrían ser incluso mensuales pero, al final, nos tuvieron esperando más que jamás a la próxima actualización de Penguin.
Y así, llegamos al Penguin cuatro.0 “El pingüino en tiempo real”.
A la vista de la evolución del algoritmo ya podemos tener clara una cosa: la regla de oro para evitar cualquier pingüinazo es recordar que...
A Google únicamente le agradan los links naturales, es algo que preocupa hasta a Batman y a Robin.
Back to top
2) La paradoja del Linkbuilding natural
Si a Google Penguin únicamente le valen los enlaces naturales es tentador pensar que la mejor manera de hacer linkbuilding es no hacer nada.
Simplemente sentarse y esperar a que los links se produzcan de forma natural y espontánea… o sencillamente que no se produzcan.
Pero seamos sinceros: a cualquier posicionamiento web en buscadores que le digas que no haga nada para conseguir enlaces le dará la risa.
Mientras éste prosiga siendo un factor clave para determinar la relevancia de una web habrá que desarrollar estrategias que sean capaces de producir un perfil de links coherente.
Para conseguir producir estos enlaces tenemos dos posibilidades:
- Generar nosotros mismos los enlaces (así sea comprándolos o bien colocándolos en otras páginas) de forma que parezcan lo más “naturales” posible.
- Provocar lacon estrategias de inbound marketing cómo el Linkbaiting.
Con la primera opción te la estarás jugando continuamente.
Porque por realmente bien que lo hagas, por muy bien configurada que tengas tu PBN o bien por mucho cuidado que pongas en cómo y dónde compras los enlaces, lo cierto es que entras de lleno en el seo black hat y estás engañando a Google.
Eso, tarde o temprano se termina pagando.
Por lo tanto, no te invito a que generes este género de links si no estás muy seguro de lo que haces y, sobre todo, nunca con un proyecto que te da de comer.
Por definición: hacer Link building es generar links y esto es cualquier cosa menos natural.
Sin embargo, provocar la generación de enlaces naturales a través de contenidos de valor y bien orientados a nuestros usuarios es siempre una apuesta segura.
Al fin y al cabo estamos trabajando con exactamente el mismo objetivo que Google: satisfacer las expectativas del usuario.
2.1) Descubre Link Building tool
y mejora tu posicionamiento con links de calidad
Back to top3) Novedades de Penguin 4.0
“El Pingüino en tiempo real”, ésta semeja ser la presentación de la nueva versión del algoritmo que promete examinar links y realizar... pero además promete hacerlo en tiempo real.
Esto supondrá ciertas ventajas y ciertas desventajas a la hora de administrar nuestros perfiles de links.
3.1) Penalizaciones sobre la marcha
Hasta ahora el algoritmo revisaba los perfiles de links cada vez que se refrescaba y cambiaba de versión.
Entonces, si hallaba un patrón de links spam su filtro se ponía en marcha y ya tenías tu penalización algorítmica.
A partir de ahora, el Pingüino estará revisando perfiles de links constantemente y según vaya encontrando backlinks tóxicos irá repartiendo penalizaciones algorítmicas.
3.2) Monitorización constante de nuestro perfil de enlaces
Este nuevo funcionamiento del algoritmo supondrá algunos cambios en nuestra forma de administrar los links entrantes.
Eso que hacíamos de realizar unamuy de vez en cuando, o sencillamente cuando sabíamos que Google iba a sacar una nueva actualización de Penguin… eso ya no vale.
Eso era como ponerse a estudiar la noche anterior a un examen… ¡Mal! eso siempre estuvo mal.
A partir de ahora tendremos que efectuar una tarea dede una forma mucho más usual.
Al fin y al cabo, Penguin nos puede penalizar en cualquier instante.
3.3) Recuperaciones más rápidas
En la otra cara de la moneda, está la enorme ventaja que supone que el pingüino esté funcionando de manera constante.
Si tenemos al algoritmo revisando los enlaces continuamente no sólo detectará los links spam rápidamente, sino que también tardará mucho menos en ver que hemos eliminado ciertos links tóxicos.
Más sobre esto
Esto supondrá un verdadero balón de oxígeno para muchos sitios web que una vez penalizados tenían que esperar hasta que el algoritmo se refrescase nuevamente para poder ver revertida su situación.
Esto significaba un auténtico “purgatorio” para muchos negocios en línea que tenían que aguardar meses sufriendo pérdidas importantes de tráfico orgánico mientras que veían que su negocio no esperaba a absolutamente nadie.
A partir de ahora una rápida detección del problema y una inmediata acción correctiva (eliminar los links tóxicos) puede suponer que se salga de la penalización algorítmica rápidamente.
3.4) Mayor complejidad para identificar las penalizaciones
Cuando una web es penalizada existen dos posibilidades: que se trate de una penalización manual o de una penalización algorítmica.
En el primer caso no hay duda.
La penalización manual la efectúa una persona, por lo que vamos a saber que hemos sido penalizados al percibir el pertinente mensaje en.
Por el contrario, cuando se trata de una penalización algorítmica la primera cosa que nos preocupa es identificar el algoritmo que nos ha penalizado para poder solucionarlo.
La comprobación que se suele hacer entonces es equiparar la data en la que comenzamos a perder tráfico orgánico con las datas en las que los algoritmos (generalmente Penguin o Panda) se actualizaron.
Pero desde el momento en que Panda formaya no conocemos las datas en las que se actualiza… y aquí se plantea una cuestión interesante: ¿qué pasará con las próximas actualizaciones de Penguin?
En principio, que Google Penguin funcione en tiempo real no desea decir que sus actualizaciones también lo sean, pero el momento de percibir una penalización del pingüino ya no va a coincidir necesariamente con el instante en el que el algoritmo se actualice.
A menudo, el instante de la penalización será cuando tengamos nuevos links spam (o más bien cuando Penguin los advierta).
La solución pasa nuevamente por realizar un mantenimiento periódico de nuestro perfil de links.
Pero además, cuando recibamos una bajada de tráfico orgánico a raíz de una penalización algorítmica debemos repasarlo todo (perfil de enlaces, contenidos… )
Back to top4) ¿Cómo comportarse con Penguin 4.0?
Ya lo he dicho ya antes, mas no me cansaré de repetirlo: a partir de ahora no vale prepararse para la salida de una nueva versión de Penguin.
Con la actualización en tiempo real deberemos cuidar nuestro perfil de links constantemente.
Por lo tanto, lo que tienes que hacer para estar de buenas con Penguin es, en buena medida, lo que repetirás periódicamente para revisar la salud de tus backlinks.
En realidad son los dos mismos aspectos que hay siempre que vigilar para estar a salvo de cualquier pingüino:
4.1) Estrategia de Linkbuilding
Como ya mencioné antes, lo primero que debemos tener claro al lograr links para un sitio es que todos los enlaces que apunten a nuestra web deben ser “naturales” ...o cuando menos parecerlo de forma muy convincente.
Para que tu perfil de enlaces sea “convincentemente natural” hay algunos aspectos que debes cuidar:
-
4.1.1) Calidad en frente de cantidad
4.1.2) Calidad en frente de cantidad
Es siempre y en todo momento mejor tener pocos links pero buenos que muchos malos.
-
4.1.3) Enlaces Dofollow y Nofollow
4.1.4) Enlaces Dofollow y Nofollow
Obviamente un perfil de enlaces en el que todos son Dofollow llama un poco la atención.
Si para cualquier persona es evidente que no es natural… para Google Penguin no cabe la mínima duda de que ahí hay spam.
Lo mejor es encontrar un equilibrio entre los dos géneros de enlaces.
La pregunta del millón: ¿qué proporción de links hay que tener de cada tipo?
Bueno, puesto que aquí hay margen de más.
Pero por mi experiencia lo idóneo es que los enlaces “Dofollow” estén siempre y en toda circunstancia por encima del cincuenta por cien del total de enlaces, mas que no alcancen cifras superiores al 75 por cien
Pero también te digo que si tus enlaces son todos naturales prácticamente seguro que estarán entre estas cantidades.
-
4.1.5) Enlazar desde páginas de la misma temática
4.1.6) Enlazar desde páginas de exactamente la misma temática
Si las webs que te enlazan son de la misma temática el enlace te dará más relevancia ante Google.
4.2) Linkbaiting
Sin duda, la mejor estrategia para lograr enlaces naturales es que los enlaces sean verdaderamente naturales.
Para lograr que nos enlacen así, la mejor estrategia es el Linkbaiting.
Esta estrategia se basa en acotar muy bien a nuestro “buyer persona” para ser capaces de definir qué tipos de contenido le resultarán irreprimibles y le incitarán a compartir y enlazarlo.
Lo que llamamos producir el cebo (bait) más efectivo.
4.3) Auditoría de Backlinks
Siempre que te caiga un Pingüinazo acabarás haciendo este proceso de auditoría y limpieza de links.
Pero esta es también una labor que deberíamos realizar periódicamente,sobre todo, en tanto que el pingüino de Google va a rastrear los links sin parar.
También es una gran idea realizarla ya si deseamos caerle bien al nuevo Penguin sin perder ni un minuto más.
De lo que se trata es de comprobar nuestro perfil de links y suprimir aquellos que nos puedan perjudicar.
Pero veremos los pasos que hay que continuar para realizar una auditoría y limpieza de links tóxicos.
4.3.1) Paso 1.- Recopilación de backlinks
No por obvio es menos preciso tener un listado lo más amplio posible de todos y cada uno de los enlaces que apuntan a nuestra página web.
Para ello vamos a poder emplear multitud de herramientas… y yo aconsejo usarlas todas (o al menos múltiples de ellas) pues ninguna será capaz de localizar la totalidad de enlaces entrantes.
Dos de las herramientas que puedes emplear para compendiar estos enlaces son:
Así, el listado que obtengamos de una herramienta podrá llenar el que hayamos logrado de la otra.
4.3.2) Paso dos.- Afianzar y clasificar los enlaces entrantes
Ahora que ya tenemos una lista extensa de enlaces (o bien más bien varias listas logradas de diferentes herramientas) que apuntan a nuestra web, deberemos afianzar estos listados y también identificar cuáles nos pueden perjudicar y cuáles no.
Para ello, puedes utilizar algunas de las herramientas que existen en el mercado, mas te invito a que pruebes la herramienta Enlace Audit de , y que vale la pena por varios motivos:
1.- Enlaza con los datos de Search Console, con lo que evitas tener que recurrir a la fuente información más esencial en cuanto a enlaces entrantes se refiere: Google. Indudablemente los links que conoce Google deberían de ser los que más nos interesen por razones obvias.
2.- Te deja importar de manera sencilla los links que hayas podido compendiar en otra herramienta de las nombradas.
3.- El “Toxic Score” que ofrece valora de 0 a 100 en nivel de confianza de cada enlace y está calculado basándose en el número de links de sitios de confianza que recibe el dominio que nos enlaza.
Así que, la primera cosa que debemos hacer, si no lo hicimos ya, es vincular nuestro proyecto de con la cuenta de Search Console pertinente.
Ahora, debemos importar los links que recopilamos de otras fuentes y afianzarlos con los de Search Console y .
Tendremos que añadirlos a la herramienta de importándolos en un fichero CSV en el que simplemente se incluirá una URL por línea.
Pulsamos en añadir backlinks
….y dependiendo del número de links añadidos le llevará más o bien menos tiempo examinarlos.
Enseguida vamos a tener todos y cada uno de los links que compendiamos consolidados y analizados en nuestra herramienta.
Una vez analizados todos los enlaces entrantes en (tanto los detectados por la herramienta como los importados de Search Console) deberíamos clasificar cada enlace de forma individual empezando por los que tienen un índice de toxicidad más alto.
En esta fase de la clasificación de links, debemos hacer una revisión de forma manual para comprobar si cada uno de los links procede de un sitio que pueda dañar nuestro perfil de enlaces.
Lo vamos a hacer, eso sí, empezando con los clasificados con un índice de toxicidad I (“Toxic Score”).
Durante esta revisión podemos ir clasificando los enlaces según distintos criterios que más tarde nos ayudarán a tomar la decisión de quitarlos o no.
4.3.3) Paso tres.- Eliminar enlaces tóxicos
Una vez identificados todos los links tóxicos tenemos que tratar de suprimirlos.
A la hora de suprimirlos nos podemos hallar con 2 escenarios bien diferentes:
Si realmente fuimos los que pusimos el enlace en otra página o bien en una PBN propia será más sencillo pues tendremos control sobre estos enlaces.
Sin embargo, si los enlaces están en sitios de terceros, deberemos hacer un pequeño trabajo de investigación para obtener una dirección de contacto del administrador web de la página web que nos enlaza y pedirle que suprima el enlace.
Bueno, esto es lo que desea Google que hagamos cuando la penalización es manual.
En ese caso no nos queda más antídoto que procurar quitar los enlaces, pues deberemos informar de estos intentos alque será revisada por una persona real.
Este vídeo es del año dos mil doce, mas su contenido sigue totalmente actual y en él Matt Cutts explica cómo deberíamos de documentar los intentos de eliminación de enlaces que hemos efectuado.
Lo que quiere Google realmente, es que dediquemos cuando menos un mínimo esfuerzo a eliminar los enlaces como el que efectuamos al ponerlos.
Sí, Google siempre y en todo momento considera que somos malos y los hemos puesto nosotros.
Sin embargo, si lo que tenemos es una penalización algorítmica no deberemos reportar a absolutamente nadie, por lo que podríamos desautorizar estos enlaces directamente… si bien no debemos.
¿Por qué no debemos?
Pues porque no es lo mismo quitar un enlace que desautorizarlo.
Cuando logramos suprimir un link este desaparece y con él desaparecerá la penalización en cuanto Google Penguin advierta que ya no está… lo que con Penguin 4 será “ya” (o bien algo similar).
Sin embargo, cuando desautorizamos un link lo que hacemos es pedirle a Google que no tenga presente ese link.
Esto es simplemente una sugerencia que Google puede tomar en consideración o no (aunque en general lo hace).
4.3.4) Paso 4.- Desautorizar enlaces tóxicos con Disavow Tool
De cualquier forma, la verdad es que la mayoría de las veces ponerse en contacto con los webmaster de estos sitios suele ser una misión imposible.
Tenemos que tener claro que cuando charlamos de desautorizar enlaces ante Google lo vamos a hacer utilizando la herramientade Search Console.
Tal y como acabo de explicarte en el punto anterior, esta herramienta debería ser un último recurso y deberás utilizarla con aquellos links que consideras que son tóxicos y que no has podido quitar o bien pedir su eliminación.
4.4) Formato del archivo para Disavow Tool
Para emplear esta herramienta de, simplemente debemos producir y subir un archivo de texto (con extensión .txt) que incluye las páginas y dominios de los que queramos que no se tengan presente los links cara nuestra página web.
Este archivo debe tener un único dato (registro) por línea y estos datos pueden ser:
- Enlaces (p.e.: -toxico/pagina-que-enlaza.html) cuando desautorizamos una página concreta que nos enlaza.
- Dominios (p.e.: dominio-toxico) cuando tenemos múltiples páginas que precisamos desautorizar de un mismo dominio es mejor desautorizar de esta manera el dominio completo.
- Comentarios, que empiezan por # (p.e.: #Esto es un comentario). Estos comentarios no son tenidos en cuenta por Google pero nos sirven para organizar el fichero separando dominios de páginas e incluyendo alguna anotación.
El funcionamiento es simple, pero aún así son bastante corrientes los archivos con errores que entonces Google no podrá validar.
Pero deja de preocuparte por el hecho de que late lo pone fácil.
Si has ido clasificando en ella los links tóxicos tendrás el apartado Disavow una lista de páginas y dominios que querrás desautorizar.
Pulsando en el botón “Export” nos descargamos el fichero txt para enviar a Search Console con perfección formateado.
Para subirlo simplemente entramos en la herramienta Disavow Tool eny elegimos la propiedad de Search Console sobre la que vamos a trabajar.
En la próxima ventana se nos avisa de que Disavow Tool se trata de una función avanzada y que únicamente se debería de utilizar si se sabe lo que se está haciendo y en caso de tener un número notable de enlaces.
Y en la siguiente ventana ya podemos subir nuestro fichero con las URLs y dominios que queremos desautorizar.
¿Y si me confundo al desautorizar links?
Bueno, la primera cosa que te diré es que no puedes subir un segundo archivo.
La herramienta únicamente permite un fichero de texto por cada propiedad de Search Console.
Lo que puedes hacer es volver a subir el archivo original modificado.
En el en el caso de que quieras alterarlo y no hayas conservado el fichero original siempre y en todo momento podrás descargarte el listado de páginas y dominios mandados.
Eso sí, que sepas que no te estarás descargando el fichero txt que mandaste.
Lo que te descargarás será únicamente el listado de URLs y dominios (sin los comentarios) y en formato CSV o bien Google Docs.
También tienes la posibilidad de quitar el archivo si quieres que Google vuelva a estimar los enlaces que habías desautorizado.
4.4.1) Y ahora a esperar… ¿o no?
Efectivamente.
Hasta ahora, cuando se enviaba un archivo había que esperar… y por norma general había que aguardar mucho.
En teoría, las desautorizaciones de los enlaces mandados no surgían efecto hasta que Google volvía a rastrear e indexar esas URLs pero, la verdad es que muy frecuentemente había que esperar a que se refrescara el pingüino y sacasen una nueva versión.
Éstas esperas son cosa del pasado por el hecho de que con el nuevo Penguin 4.0, Google promete revisión constante de los enlaces.
Esto puede suponer una mayor agilidad en el momento de desautorizar y reautorizar los enlaces que incluyamos en este archivo.