¡Hola nuevamente querido lector! Hoy te traigo un gran contenido de una persona que ha tenido un impacto muy fuerte en mi carrera como SEO blogger y que ha decidido ahora arrancar también con su propio blog de posicionamiento en buscadores haciendo de esa manera la blogosfera hispana del posicionamiento web un poco más rica. Hablo de Nacho Monterde de. Un webmaster con «asteroides».
Una de las cosas que más obsesionan ya no en la rama del posicionamiento sino más bien en la mercadotecnia on line generalmente es « la adquisición de tráfico web«. Todo el planeta siempre quiere más y más visitas en tanto que a través de ellas lograremos siempre y en toda circunstancia de una manera o bien de otro alcanzar nuestros objetivos de negocio.
En un blog como este no podía faltar un post convidado de uno de los compañeros en posicionamiento en buscadores que más me ha enseñado sobre el arte de esta disciplina. Él es bastante modesto y no lo dice pero fue de los primeros profesionales de este sector en acuñar el término «respuesta de usuario» y en conocer y medir realmente su auténtica relevancia y también impacto en el posicionamiento en buscadores.
Hoy viene a hablarnos de tráfico, de como creó una red de blogs y de como merced a ello el pasado mes de abril andaban por una cifra de 200.000 visitas / día.
Vamos a charlar de lo que ahora verdaderamente funciona en el posicionamiento en buscadores 2015. Para esto pocas personas están más cualificadas que Nacho así que te dejo con él.
No obstante ya antes querido lector quiero comentarte escuetamente algo, como puedes ver he bajado la publicación a 1 post por semana, tan pronto como pueda la volveré a subir pero quiero que sepas que nada, absolutamente nada de lo que hago en mi rutina de posicionamiento web / webmaster / CEO / emprendedor me llena tanto como redactar en este weblog y ponerme enfrente de ti en cada contenido.
Ahora sí… Qué empiece la función
###
Hola a todos. Para comenzar deseo agradecer a Dean por dejarme publicar este artículo en su blog.
En este artículo haré un repaso completo a todo el proceso de creación, optimización y evolución de la, y los pasos que dimos para alcanzar 10 millones de visitas mensualesdurante varios años.
Hablaré de las “gallinas de los huevos de oro” que nos fuimos encontrando y que exprimimos al máximo, y también de los fracasos que sufrimos, que nos sirvieron para afinar nuestras estrategias.
Daré mi visión sobre cómo ha ido evolucionando el posicionamiento SEO desde 2005 y de las estrategias que creo que marchan hoy en día.
Si quieres saber más sobre mí o bien las estrategias SEO que empleo puedes seguirme en mi weblog de posicionamiento web en buscadores Azul. Empecemos:
Back to top1) Los locos años pre Panda
En verano de dos mil cinco, mi compañero Sergio y yo comenzamos la red Softalian. En aquella época poquísima gente hacía posicionamiento SEO a nivel profesional y la competencia era escasísima. El planteamiento era sencillo: buscábamos temáticas con poca competencia, atemporales, le poníamos 4 links, Adsense y a esperar.
Empezamos con gatos y perros, con masajes, flores, y casi cualquier tema donde la competencia fuera escasa: una web de Shakira, espectros, bodas, esoterismo, dinosaurios, historia y arte, y así con decenas de temáticas.
Con pocos links, aun de nuestra misma red, con un mínimo de pluralidad de IPs y con buen posicionamiento en buscadores onpage, se posicionaba todo. Prácticamente cualquier página superaba las mil visitas diarias, no por calidad, sino por falta de competencia, y sobre todo por falta de páginas de calidad que supiesen posicionamiento web de veras. En aquella época muchas páginas usaban links Javascript, los CMS (como) no tenían urls amigables por defecto, y así con un sinfín de fallos posicionamiento SEO que el día de hoy (casi) ninguna página comete.
Como resultado en un año alcanzamos las 100.000 visitas al día. Toda nueva página se basaba en los próximos aspectos:
- Contenido que no caducasenunca para disminuir al mínimo el costo de desarrollo de la web.
- Menú lateralcon todos los artículos enlazados para distribuir la fuerza a todos los posts.
- Portales, pero no blogs: ninguna estructura de tipo blog, sino solo un portal básico con información invariante.
- Temáticas de poca competencia: menos de cinco páginas de calidad (y optimados) para esa temática. No abordamos el fútbol, por ejemplo.
- Link building muy lento: 1 enlace el primer mes, 2 el siguiente, 3 el siguiente, y a aguardar tres meses más.
- Si era posible, temáticas con anunciantes, puesto que en aquella época Adsense se basaba mucho en el contenido de la web, en contraste a ahora que tiene mucho en cuenta los gustos del visitante.
- Publicidad invasiva: antaño los usuarios no estaban tan habituados a Adsense, y de forma frecuente lo confundían con los links naturales. Como resultado conseguíamos un CTR superior al cuatro por cien (eso ya no sirve hoy en día).
Con eso era suficiente en aquella época. La única queja era el CPC (costo por clic), pues había muy pocos anunciantes. Más de la mitad de los portales no tenían anunciantes de la temática (nadie anunciaba) y cuando los había no siempre había gran puja. El clic se pagaba a entre 1 y tres céntimos.
Back to top2) Google Imágenes: la gallina de los huevos de oro
En 2006 descubrimos la primera gallina de los huevos de oro:. Lo que ahora todo el mundo sabe, a lo largo de unos años fue un secreto que poquísimos implementaban: la optimización de imágenes.
Seguíamos la siguiente técnica:
- Imágenes nuevas, es decir, que no existiesen exactas en el índice de Google. Para ello, recortábamos, cambiábamos la calidad y retocábamos con Photoshop cada imagen.
- Nombre de fichero
- Alt y title
- Contexto optimizado: el texto que rodea la fotografía.
- ¡ Bonita!, a fin de que llamara la atención en el listado.
Y ya está, con eso era suficiente. Y (casi) nadie lo hacía. El resultado fue que 2 de nuestras webs: Planeta Gatos y Perros Amigos se plantaron con cinco y nueve mil visitas al día cada una, donde más de la mitad era tráfico de Google Imágenes.
Hay que decir que el tráfico de Imágenes no era tan bueno, puesto que Google en aquella época mostraba los resultados con un iframe transparente, por lo que no siempre la “casi visita” se convertía en visita. Aún así era mucho tráfico.
Viendo el éxito del “truco”, decidimos hacer páginas de imágenes de forma masiva. Ese es el motivo con lo que ahora la red tiene decenas de páginas de fondos de pantalla, dibujos, fotografías, imágenes, postales y tarjetas. El tráfico de imágenes llegó a representar el sesenta por cien del total. Era tráfico malo, a páginas sin anunciantes y en ocasiones sin llegar al clic, pero era masivo.
Además como Panda no existía (en España), y mucho menos para Imágenes, ni siquiera hacíamos las páginas con un diseño agradable, sino que las hacíamos feas, a propósito, para que solo se viese el Adsense y subir el CTR.
Back to top3) Los locos años pre Pingüino y el enlace building actual
Con este esquema, repetido y replicado a lo largo de cinco-6 años (se afirma pronto), conseguimos superar las trescientos visitas diarias. El record lo alcanzamos el trece de febrero de dos mil once, día anterior a San Valentín, donde nuestras imágenes, postales, fondos y dibujos de amor, nos hicieron lograr las setecientos ochenta visitas.
Desde siempre y en todo momento Google ha controlado la compra e intercambios de enlaces. Ya antes de Pingüino también, pero su control se limitaba (facilitando mucho) a supervisar IPs, intercambios y banear directorios y granjas de links.
Nosotros usábamos un sistema muy básico:
- Nada de intercambios con nadie.
- Enlaces propios en nuestra red pero jamás recíprocos, sino en forma de “camino” al estilo de A > B > C > D, es decir, jamás cerrando una red de links.
- Enlaces de menú o bien footer.
- Anchor de palabra clave precisa.
- Sin importar la temática.
Sí, lo sé. Esto contradice, mas ya antes esto funcionaba. Con estas técnicas, hoy en día, toda la red sufriría una reducción drástica de tráfico, puesto que caería (como cayó) en una penalización Pingüino.
Sin embargo, paradójicamente el día de hoy en día Google no prohíbe tan estrictamente el intercambio o bien la compra de enlaces. Sabe que la batalla ahora es otra. El día de hoy en día, casi todas las webs potentes compran enlaces. No me atrevería a decir públicamente que muchas empresas acuden a mi red a comprar reseñas, mas es una cosa que no me extrañaría que pasase. Eso Google no lo castiga por el hecho de que en muchos casos ni tan siquiera está claro que deba ser castigable.
Hoy en día Google persigue que lo que hagamos sea natural, ya no creo tanto en un umbral riguroso de penalización o bien salvación. El Pingüino moderno creo que define una línea con muchos estados de relación entre páginas donde a mayor relación, menor peso adquiere el enlace. Cuando nuestro enlace building está muy basado en pocas redes, nuestra fuerza baja, mas más que una penalización, lo que nos afecta es un reajuste de nuestra fuerza, una anulación de parte de la fuerza que nos habían transmitido. La diferencia es sutil mas importante.
Siempre que no nos volvamos demasiado beligerantes (o Black) vamos a poder hacer enlace building con determinada seguridad. Podremos recibir un reajuste de nuestras situaciones pero es muy difícil percibir una penalización. A efectos de tráfico se semejan, pero la diferencia es que una penalización te deja peorque como hubieses estado de no haber enlazado. Un reajuste te deja igual, esto es, te quita la fuerza que habías adquirido pero te deja igual (no peor) que si no hubieras hecho esa acción. Yo hace años que no padezco ninguna penalización por enlaces.
Back to top4) Y llegó Panda
Agosto de dos mil once fue duro, muy duro. La hostia que nos cayó la penalización que padecemos fue muy grande. Panda llegó a España(al mercado español) y nuestras páginas no respondía bien a esa actualización. Poco tiempo después nos cayó una penalización del Pingüino.
No considero que sea estrictamente una penalización, sino más bien más bien una anulación de la totalidad de los links de nuestra propia red.
Las páginas que a lo largo de ese tiempo habían conseguido enlaces naturales de otras redes, subsistieron. Las que solo tenían links propios, comenzaron a fallecer.
Bajada de Perros Amigos justo el día que llegó Panda.
A eso le sumamos que Google empezó a cambiar la manera en la que mostraba los resultados en el buscador de imágenes. Navegador a navegador y fase a fase, fue reteniendo al usuario de Google Imágenes sin salir de Google, hasta llegar a la versión que el día de hoy en día se conoce de un buscador que no te envía, a menos que lo solicites de manera expresa, a la página web origen.
Como resultado, la mitad del tráfico perdido. En menos de un año de 350 mil a 160 mil visitas diarias, y más de 100 dominios agonizando.
Back to top5) La solución: link building moderno y respuesta de usuario
A partir de 2012 empezamos un giro completo en nuestras estrategias. Lo primero que pensamos era lo que decían precisamente los algoritmos, que nuestro contenido era malo y nuestros links artificiales. Así que comenzamos a prosperar ambos aspectos.
Primero mejoramos el contenido, el diseño de las páginas y limpiamos la red de links. Tuve la fortuna de conocer a, quien me asesoró con la estrategia de enlace building. Durante 2012 actualizamos nuestra red y la hicimos apta para Panda y Pingüino.
Y el tráfico mejoró, mas no tanto como lo que habíamos perdido. Era natural, el tráfico de Google Imágenes ya nunca volvería. Pero aún así, la teoría no cuadraba. Entendía por qué las páginas menos cuidadas tenían poco tráfico, mas no entendía por qué algunas páginas de mucha calidad no subían a niveles razonables.
En concreto, dos parejas de páginas no se comportaban como se aguardaba de ellas:
- Mundo Gatos y Perros Amigos
- I-Decoración y Brico Decoración
Durante más de 1 año estuve analizando esos pares de páginas. Planeta Gatos y también I-Decoración superaban las 4.000 visitas cada día. Las otras apenas superaban las 2.000. No era normal, pues tanto Perros Amigos como Brico Decoración tenían mejor contenido, mejores links y el mismo cuidado (diseño, opciones internas, relevancia social,…). El posicionamiento SEO clásico no explicaba por qué unas tenían más tráfico que otras, ni tan siquiera incluyendo todas y cada una de las actualizaciones de Google en el análisis.
Mundo Gatos no se ve perjudicado por Panda.
Tras más de 1 año, por fin entendí lo que sucedía. No era culpa del contenido, no era culpa de la calidad de la página, el motivo era otro y se llamaba.
Bueno, en realidad no se llamaba de ninguna forma. Le puse ese nombre para referirnos a este hecho de alguna forma.
El hecho es que se repetía un mismo patrón: las páginas en las cuales el usuario daba una mejor respuesta eran aquellas que se posicionaban mejor. Por supuesto, el seo onpage y el link building seguían siendo básicos, mas cuando estos factores estaban cubiertos, la diferencia la marcaba la respuesta de usuario.
La contestación de usuario es la teoría en la que fundamentamos todos nuestros trabajos desde dos mil catorce. Hablo en plural por el hecho de que esta teoría marca los principios que proseguimos todo el equipo, tanto en proyectos propios para clientes del servicio, tanto en desarrollos web como en optimización para buscadores web.
Parte de una aclaración. Hay una gran confusión sobre el algoritmo Panda. Estoy tan seguro de ello que me atrevo a aseverarlo, cuando de normal solo opino o bien sugiero. La aclaración es que:
Google no mide el contenido y la calidad de una página (salvo errores graves como contenido duplicado o bien vacío), sino que mide cómo responde el usuario ante dicho contenido.
El contenido puede ser un medio pero no el fin de nuestra estrategia SEO. Como ya dijo, el contenido no es el rey.
El fin deberá ser satisfacer al usuario, pero haciéndolo de forma que Google pueda medirlo.
5.1) ¿Y qué quiere decir satisfacer al usuario?
Esta es el interrogante del millón. El propósito ha de ser lograr que Google sepa que el usuario quiere visitarnos, quedarse y volvera nuestra página. Me agrada emplear esos 3 verbos para separar cada uno de los objetivos que debemos buscar.
La parte en la que Google sabe si esto ocurre es variada y algunos puntos pueden ser sujeto de debate. Pero hay 2 cosas que puedo afirmar. La primera es que Google lo sabe, y con una precisión bastante considerable. La segunda es que el grueso de esa información la saca de su buscador, a través de las búsquedas y elecciones que hacemos.
El primordial factor que Google tiene presente es elen sus búsquedas, esto es, qué páginas se escogen en sus búsquedas, y específicamente, el click through rate más el rebote. Esta es la forma que Google tiene para saber qué páginas son escogidas en nuestras búsquedas y cuales no satisfacen al usuario. Si un contenido no agrada al usuario y se genera un rebote, la respuesta de usuario de nuestra página bajará.
Al revés, si nuestro contenido gusta, y el usuario ya no vuelve a Google, este habrá entendido que hemos satisfecho al usuario y la contestación subirá. Este es un ejemplo de cómo el contenido puede ser un medio para el fin, mas el fin será la contestación de usuario.
Este factor alcanza su máxima repercusión con las búsquedas de marca. En el momento en que una web logra que se efectúen búsquedas de manera directa buscando su marca, logra un CTR próximo al cien por ciento . Esto tiene un impacto muy alto en la contestación de usuario y hace subir su tráfico orgánico general.
Para que la teoría de respuesta de usuario tenga alguna utilidad, debe servirnos de herramienta para progresar nuestro SEO. De entre todas los beneficios, hoy hablaré solo de dos: diagnóstico y elección de contenidos.
5.2) Diagnóstico SEO
Es su utilidad más obvia. Nos deja entender, que ya es mucho. Sin contestación de usuario no es posible comprender muchos comportamientos que no son explicables sin estos factores.
Citaré algunos ejemplos:
- Mundo Gatos ranquendo mejor que Perros Amigos:
Mundo Gatos tenía una comunidad muy activa que volvía frecuentemente a la página a hablar en el foro y subir fotos. - La caída de TodoExpertos:
Los usuarios comenzaron a emplear servicios especializados y a visitar otro tipo de webs de la competencia y dejaron de responder bien ante esa web. - :
Subida al 2 mientras tenía contestación (charlaba de él y decenas de sus lectores visitábamos su web a través de Google) y posterior bajada al 10 cuando dejó de tenerla. Ahora está donde le corresponde acorde al link building y seo onpage, y su actual respuesta.
bailes en el índice de visibilidad para mi key «Bull Terrier» en Google (mostrado por)
Incluir contestación de usuario en nuestros análisis nos permite examinar mejor el comportamiento de cualquier proyecto web. Nos permite en consecuencia ahorrar tiempo y recursos valiosísimos.
5.3) Elección de contenidos
También nos sirve de guía para delimitar nuestras estrategias, y de entre todas las indicaciones que la teoría nos aporta, la más relevante es la.
Su principio básico dice que:
Debemos ofrecer contenidos que satisfagan al usuario más que la competencia y descartan aquellas palabras clave que no podamos satisfacer.
Esto parece una cosa obvia pero no lo es tanto. Uno de los fallos que hemos cometido en estos años es atacar keywords donde la competencia ya tenía un prestigio que hacía que fuesen a seleccionarles a ellos. El ejemplo que siempre y en toda circunstancia me agrada poner es Xataka. Esa web ya es una referencia tecnológica con lo que no es razonable atacar exactamente las mismas keywords que él ya ataca ni siquiera con mejores contenidos.
Ante una búsqueda el usuario muy seguramente elegirá webs conocidas ya antes que la tuya. Por ende, o debemos ofrecer una página con el mismo prestigio o bien buscar una especialización y agredir nichos mucho más concretos.
El ejemplo que siempre y en todo momento pongo de fracaso es No Solo iOS, una web que lanzamos para competir con grandes keywords pero que acabó siendo una pérdida de tiempo y dinero. Nos pasó lo mismo con la moda, cuando procuramos competir con las bloggers con contenido nada específico. Sin embargo, sí que es posible posicionarte realmente bien atacando palabras clave que las grandes no atacan.
En esta líneaes una web que podría haber hecho cualquiera de nosotros sin mucho coste y que se ha posicionado realmente bien (no, no es mía, ni sé de quién es).
No Solo iOS: un caso de mala elección de contenidos.
También debemos descartar los contenidos que no vayamos a poder satisfacer. Repetiré un ejemplo que he puesto múltiples veces. En Planeta Gatos no es razonable hacer un blog post sobre “comida para gatos”. Salvo que mi post será la mejor comparativa posible y de verdad sea increíblemente útil, el usuario que hace esa búsqueda quiere una tienda, y en consecuencia mi CTR será mínimo.
Esa palabra clave debí haberla descartado (sí, la intenté y no funcionó). Con mucho menos esmero, pude ranquear para “gatos siameses” pues para esa búsqueda de tipo enciclopédica, Planeta Gatos sí puede ser la respuesta aguardada.
Back to top6) Las estrategias actuales
En la actualidad todos nuestros proyectos empiezan con una elección de tema y 2 preguntas:
- ¿En este tema vamos a poder satisfacer al usuario?
- ¿Qué keywords podremos satisfacer?
Solo cogemos temas que cumplan el primer principio y solo atacamos palabras clave que cumplan el segundo. Nuevamente semeja una obviedad, mas no lo es. Desde el momento en que empezamos a trabajar así, hemos subido en cincuenta mil visitas cada día nuestro tráfico. En abril superábamos las 200.000 diarias de nuevo. En el mes de mayo perdimos nuevamente un 10 por cien por ely ahora estamos en proceso de volverlo a recobrar.
En lo queda de año seguiremos desarrollando nuevos portales basándonos siempre y en toda circunstancia en exactamente la misma fórmula:
- respuesta de usuario
- seo onpage
- link building
Y ahora ¿Qué opinas sobre la contestación de usuario en el posicionamiento? 🙂
###
Grandes post de posicionamiento web en buscadores en español que corroboran la cada vez más famosa teoría de la respuesta de usuario:
Back to top