Como ganar dinero con su blog, Servidores blog, Plantillas para bajar, Contadores de visitas, Adsense, Estadísticas y mucho más.
-
-

10 dic 2012

Historia reciente de Google Search y su dudosa estrategia de calidad de resultados

Hace tiempo que tenía ganas de escribir esta entrada, pero siempre surge algo, sino es una nueva novedad es simplemente trabajo. Hoy, vengo con el cabreo de fondo que me trae una novedad que comentaba Pedro Serrano (twitter, linkedin ) que le había venído de Raven Tools donde por presiones de Google dejarán de rastrear las posiciones en las búsquedas que ocupan las webs.

Esto se suma a una serie de acciones, que vienen realizándose desde algo más de 2 años y que se disfrazan como a favor del usuario aunque como fondo siempre tienen un punto en comun: dificultar la labor SEO. Y digo esto porque muchas veces no encontramos ningún motivo lógico para los cambios salvo este, lo cual es como mínimo frustrante.

No me entendáis mal, no estoy a favor de que se permita realizar Spam en las webs ni de que una marca pueda ver sus visitas usurpadas por un SEO Spamer o directamente Black Hat. Cuando Google ha realizado cambios en pro de los resultados ofrecidos por su buscador no me ha importado demasiado. Cuando se lanzó Google Caffeine, en Enero de 2010 a todos nos pareció perfecto: se cambiaba la infraestructura de indexación de Google y eso le daba nuevas posibilidades; tanto para encontrar nuevos contenidos que antes no llegaban a ser indexados como para realizar cambios futuros como Google Instant que nos llegó solo unos meses después.

En ambos casos se afectó negativamente a ciertas estrategias SEO: Caffeine fue en contra de las webs pequeñas de marca que ahora veían como muchos nuevos contenidos pasaban a competir contra ellos. Lo peor de todo fue que eso inundó aún más los resultados de búsqueda de contenidos de baja calidad de foros secundarios, blogs cutres y webs hechas con dreamweaver. Pero se entendía el movimiento: el rastreo era sin duda mejor y pasábamos a tener muchos más millones de resultados donde escoger. Con Google Instant aquellos que se posicionaban a partir del resultado 11 (segunda página o búsquedas de 100 en 100) vieron como sus visitas descendían pues al usuario le resultó ya más fácil filtrar la búsqueda con los resultados sugeridos que ir pasando de página. Pero esto era lógico: Google empezaba a tener serias críticas sobre lo poco que se estaba modernizando: los usuarios empezaban a mirar hacia otros buscadores estéticamente más modernos y con ciertas novedades. Instant colocó a Google de nuevo en la cumbre al ofrecer una experiencia de búsqueda realmente rápida. Sin embargo al poco empezamos a ver que no solo se trataba de eso: Instant trajo una mayor presencia de la primera página y de la cabecera del buscador lo que sin duda benefició a Adwords que a partir de ahí y poco a poco ha ido ocupando cada vez más espacio en la cabecera de una búsqueda y en la página de búsqueda en general. Todos recordamos el gran cambio que se produjo cuando AdWords en la columna central pasó a ocupar 3 resultados en todas las búsquedas principales y lo que supuso de caída en clicks a los TOP1.

Como decía, estos cambios podían ser discutidos pero siempre tenían una orientación hacia el usuario que los hacían parecer resultados colaterales y no objetivos en si mismo. El problema empezó con 2011 donde el giro de estrategia del programa de calidad de resultados de Google se transformó en un ataque frontal hacia todo lo que oliese a SEO. Ahí vimos nacer al primer animalito del Zoologico de Google: un monísimo Google Panda que en teoría perseguía a los resultados de contenido de baja calidad. A España no nos llegó hasta agosto de ese año, pero los grandes cambios casi arbitrarios de posiciones que observábamos en USA nos tuvieron temblando todo el año. No nos engañemos, Panda puede haber limpiado de mucha porquería los resultados pero lo ha hecho mal: ha atacado a webs con contenido único y ha dejado a otras webs claramente replicadoras de contenidos impunes y esto es porque el realidad (al menos para mi) no se trata de un algoritmo que ataque al contenido de baja calidad, sino que ataca al SEO técnico: un SEO desarrollado por desarrolladores/programadores y no por generadores de contenidos y que por lo tanto provoca repeticiones de patrones en las webs: mismos esquemas de contenido, mismas estructuras web, misma cadencia en aparición de nuevas páginas, mismos modelos html, etc. Los premiados con ello han sido las webs caóticas de contenidos y las comunidades descontroladas, que con contenidos mediocres sacaron un gran partido a Panda. Panda también impulsó al SEO de contenidos al estrellato. Un tipo de SEO que por lo general era secundario pues la mayoría de Seniors venían de luchar mucho en el lado técnico y que vio como todo el mundo demandaba de golpe estrategias de contenido SEO. No me parece mal, pero creo que nos ha llevado a un panorama SEO donde hay mucho especialista que no tiene ningún control sobre la parte técnica y que en consecuencia no puede saber muy bien lo que hace. El SEO de Contenidos 100% es lo que le gusta a Google: generar información, generar material para que la gente use el buscador para encontrarlo. Pero este esfuerzo, sin una base técnica se transforma en una simple estrategia de saturar nuestro site con oportunidades para posicionarse (alias nuevas páginas) y por lo tanto, lo quieras o no, termina generando nuevas visitas. El problema de este SEO suele ser que a lo bruto no es rentable (los contenidos cuestan más de lo que aportan) y que sin una estrategia de marketing/conversión en la que apoyarlos estas todas las nuevas visitas no aportan negocio. Pero este es el mundo que se ha creado con Panda: un buscador que penaliza con una calidad dudosa y que por tanto ha generado búsquedas que para nada ayudan al usuario. Realmente los resultados de una búsqueda eran de mucha mayor calidad antes de Panda, solo tienes que haberlo seguido un poco para verlo.

Tras panda nos hemos encontrado, solo un par de meses después de observarlo en nuestro pais, con el famoso (not provided). Aquí nos lo disfrazaron como una mejora de seguridad para los usuarios cuando todos sabíamos lo que se buscaba de fondo. Ya no teníamos duda de las intenciones de Google, no le bastó con ir a atacar estrategias solo por ellas mismas sino que se comenzó con una estrategia que poco a poco nos iba a eliminar cada vez más información sobre que Keywords se usan para acceder a nuestro site. Un mazazo para la analítica del SEO que se hizo muy bien: comenzamos con un porcentaje afectado que en raros casos pasaba del 5% (y por lo tanto no nos afectaba tanto) para llegar actualmente a perder visibilidad en muchas web sobre aproximadamente la mitad del tráfico que nos trae el buscador. Para quien lo dude: si, un 50% de tráfico desconocido anula cualquier análisis que podamos hacer. ¿Ha mejorado esto la seguridad del usuario? En absoluto: las cookies abusivas y las infracciones del la LOPD ahí siguen sin problemas, lo único que se ha hecho ha sido privar a las webs de herramientas para decidir como acercarse más hacia sus usuarios/clientes potenciales. Habrá quien defienda que se putee a la empresa y su análisis del mercado, pero bien que cuando busquen ahora regalos por navidad les gustará poder encontrar quien vende lo que quieren.

Siguiendo con ataques directos cada vez más evidentes, llegamos al segundo animalito del zoológico de Google: Google Penguin, lanzado a principios de 2012. Aquí ya no se escondieron, lo explicaron como siempre de forma poco comprensible pero el objetivo estaba claro: ir a por la sobreoptimización. Si Panda buscaba patrones técnicos Penguin los buscaba ya directamente en la optimización hacia una keyword. Ahora las optimizaciones son malas, pero ¿cuando? Cuando son demasiado forzadas como para ser naturales. El problema de todo esto es que es Google quien juzga que es natural y que no. Google Penguin es una gran jugada pues parte del miedo que aun suscita Panda para obligar a todo el mundo a desoptimizar sus webs, pero veamos lo ilógico que resulta esto ¿Necesito un SEO para que desoptimize mi site? ¿Para eso no hubiese bastado con que no hubiese hecho SEO? Esa es la conclusión básica que se busca: el seo no sirve! Haz las cosas bien: preocúpate por tu usuario y por una calidad de tu web indiscutible y los resultados llegarán solos. Eso, sientiéndolo mucho debemos decir que es mentira, tu no te preocupes por el SEO y alguien ya se ocupará de robarte tu trozo del pastel en el Buscador. Siempre podrás recuperarlo a base de pagar Adwords y hacer aún más felíz a Google pero ya entramos en terrenos de campañas pagadas. La realidad es que Penguin solo ha atacado a aquellas estrategias que llevamos años viendo como peligrosas: Sobreoptimizar las webs. El post que acabo de poner fue escrito en Noviembre de 2009 y viene a decir lo mismo que Penguin: No te pases optimizando, se un poco listo y actúa emulando lo que hace internet por si solo. Pero claro, no era igual de cara una campaña de links despreocupados para potenciar una keyword que una estrategia más comedida y que buscase la naturalidad y por eso muchos se han visto afectados por Penguin. Esa gente tiene un problema pues tiene que naturalizar su optimización para sacarle partido. Pero solo esta gente, para el resto todo sigue igual y eso de dejar de optimizar si lo pensamos un poco no tiene sentido.

¿Qué está consiguiendo Penguin para el usaurio? ¿Menos Spam? ¿Realmente las webs que te encontrabas de Spam al buscar han desaparecido? Te ahorro las respuestas: no ha conseguido nada. Solo entorpecer las estrategias SEO de aquellas empresas que los hacían con recursos. A estas empresas hay que ponérselo difícil por un simple principio: Si tienen dinero para generar tantos links lo tienen para pagar Adwords.

A día de hoy nos llegan dos grandes cambios. La primera por fin vuelve a tener que ver con el usuario y es knowledge graph, que para búsquedas de items muy identificados transforma el buscador en una respuesta directa al usuario. Esto tiene sentido: evitan visitas tontas a la wikipedia, mejoran la exposición del contenido del que disponen en Google+ y el usuario al final es más feliz al leer directamente en Google lo que buscan. Por otro lado knowledge graph pasa los resultados de Google a un segundo o tercer plano dejándolos como algo anecdótico de la búsqueda y no como el resultado real. Esto va a hacer daño en productos integrados, pero por otro lado representa una gran oportunidad para los propietarios de esos Items que podrán posicionar su información oficial expuesta en el propio buscador, solo hay que aprender a hacerlo y hacerlo bien. Así que básicamente devuelve el poder de una búsqueda a su legítimo dueño. E¿l truco? Pues que para eso habrá que nutrir de información las herramientas de Google: Local, Google+, etc. Es una estrategia parecida a la que ya se hacía con Universal Search: incluir resultados de productos de Google (mapas, vídeos, imágenes) en el resultado de búsqueda para promocionarlo y de paso obligar a que se usen más las opciones para aportar contenido a estos servicios. Solo que se da un paso más y se cambia totalmente el comportamiento principal del buscador para algunas búsquedas. Esto tiene serias repercusiones para algunas búsquedas pero como decía antes, como favorece al usuario no es tan frustrante como los ya citados.

Otro de los cambios (esta vez más oculto al público) es el ataque directo a las herramientas de medición de rankings que era con el que comenzaba este post. Parece que Google está empezando contactar con herramientas de medición de keywords en base al uso de sus APIs. Básicamente si una empresa desea ofrecer este producto de medición de posiciones no podrá usar otras apis como las de Adwords (y hay que imaginar que también como las de analytics, maps, google+, etc.). Así Raven SEO Tools explica los motivos que le llevan a dejar de medir posiciones con su herramienta a partir del 2 de Enero. Este movimiento ya no tiene ninguna otra explicación que fastidiar el análisis SEO.

Conclusión

A Google no le gusta que sepamos que pasa con nuestras webs en sus resultados y en base a eso está actuando con todo lo que puede. Aquí he comentado solo los cambios más evidentes, pero sin duda hay más detalles que comentar como los nuevos buscadores verticales que están probando, los movimientos continuos de posiciones, la personalización de resultados llevada a niveles brutales, etc. Todo esto hace que cada vez funcionemos más por estadística y menos con datos reales. Añadimos a todo esto los cambios en Adwords (que darían para otro post entero) que poco a poco van siendo cada vez más presentes y más obligados y donde empezamos a ver productos de Google Shopping directamente promocionados de formas muy notorias. Yo creo que al final todo lo hecho en SEO no es más que otro de los pasos para optimizar Adwords: a mayor dificultad en SEO para las grandes empresas, mayor inversión terminarán recibiendo en adwords.

ARCHIVO DEL BLOG