La consultora de diseño de servicios empresariales Fjord acaba de publicar su “Informe de Tendencias digitales 2013″ donde predice las tendencias digitales para el próximo año y las orienta a las oportunidades de negocio que pueden suponer para las empresas.
“Se trata de una instantánea muy útil que nos permite entender de forma sencilla cómo los avances tecnológicos y la creciente saturación digital están perfilando la realidad digital de hoy en día tanto para las personas como para las empresas de nuestro entorno”, señala Louisa Heinrich, directora de estrategia de Fjord.
Las 10 tendencias digitales según Fjord
1. Los modelos de negocio P2P (peer to peer) seguirán creciendo no sólo en el ámbito personal y de las finanzas, sino también en la fabricación y distribución. Ya podemos ver plataformas online que comercializan productos artesanales. Las empresas tradicionales pueden aprovechar esta creciente tendencia para explorar vías de colaboración e integración de servicios “de igual a igual” en áreas relevantes para su negocio.
2. Empezar a demandar más a cambio de proporcionar datos personales. Esto potenciará la creación de herramientas que permita a los usuarios gestionar y controlar quién, cuándo y cómo puede ver sus datos.
3. Aumentará el número por persona de objetos inteligentes interconectados. Así se conformará un ecosistema personal en el que el todo tendrá más valor que la suma de las partes que compone la red. En 2013 saldrán dispositivos que nos hablan a nosotros y entre sí, facilitando el flujo de información, conocimiento y entretenimiento.
4. El volumen de datos e información para este nuevo año seguirá incrementando. Será fundamental seleccionar los más relevantes y priorizar las interfaces, así como buscar soluciones simples, directas y focalizadas.
5. La revolución del retail derribará las fronteras entre lo online y offline, proporcionando a los consumidores una experiencia de compra más personalizada, completa y satisfactoria. Este 2013, se introducirán nuevos métodos de pago que, junto con las posibilidades de las redes sociales, los dispositivos móviles, el geofencing, los códigos QR o los datos de ubicación y contexto, reconfiguran el concepto de irse de compras.
6. El poder acceder a los contenidos desde cualquier lugar y en cualquier momento está cambiando las reglas del juego. Esta portabilidad hace que se esté hablando de “acceder” más que de “poseer” los contenidos, gracias también a los servicios de suscripción y el streaming. No hablamos solo de música o audiovisual, la mentalidad del pago por uso se extenderá a otras áreas como el alquiler o el intercambio de ropa y coches. Las empresas deberán plantearse si sus productos y servicios son más de “acceder” que de “poseer”.
7. Aprender se vuelve personal: los materiales educativas evolucionan para adaptarse a cada alumno en tiempo real. La personalización de la educación se espera que dé el salto al mundo empresarial.
8. La voz será la protagonista de los nuevos servicios e interfaces. Los nuevo sistemas de reconocimiento e interpretación de voz llevarán al voiceprint como una nueva forma de “firma personal”.
9. El 2013 presenciará nuevos modelos de negocio ideados y concebidos únicamente para el entorno móvil.
10. Hasta los negocios más tradicionales están teniendo que adaptarse al entorno digital, por lo que las empresas deberán promover la innovación y equipos multidisciplinares con nativos digitales. Hay que pensar como una startup.
14 dic 2012
SEO y Performance: El rebote y el posicionamiento web
A raíz de la reedición de uno de mis posts, concretamente el relacionado con la manipulación del rebote en Google Analytics, he recibido varios comentarios (personales, email, blog,...) hablándome del efecto del rebote en el posicionamiento web. Todos ellos fruto de una clara confusión al usar la misma palabra "rebote" para referirnos a un comportamiento similar pero técnicamente a procesos claramente diferenciados.
Hace unos 2 años empezó a hablarse de como podía estar evaluando Google la calidad de los resultados que ofrecía a los usuarios. Uno de los criterios que empezó a tomar fuerza hasta que a día de hoy está casi asumido por todos como un criterio usado por el buscador es el Rebote de las páginas web que se genera en sus resultados. Supuestamente este rebote estaría afectando negativamente al posicionamiento en el buscador.
Qué es el rebote
El problema principal es que la definición de rebote es técnicamente ambigua. Un Rebote es un usuario que entra en un site en el que no desea entrar y por lo tanto sale rapidamente de este. La alegoría esta clara, el usuario no entra en nuestra web sino que al entrar rebota de nuevo hacia fuera. Si bien lo que debe significar esta claro, llegados al punto de cómo medirlo técnicamente no existe una norma a seguir y cada herramienta lo mide como puede o simplemente como le da la gana.
Así pues, algunas herramientas toman solo una página vista, otras unos segundos, otras como omniture no lo traen como métrica por defecto y otras como seevolution evitan hablar del rebote indicando métricas nuevas (rebotados/no-rebotados por distintos criterios) con otros nombres (en ese caso Junk/Interested/Engaged en función de paso de 5 segundos en el site para "Interested" y alguna acción de click o scroll para "Engaged"). Realmente no puede haber un consenso porque no hay una solución buena.
En Google Analytics vimos que el rebote es manipulable y por lo tanto aun siendo una única métrica esta es distinta en cada caso.
Cómo mide el rebote Google Search
Llegados al terreno del SEO debemos tener clara una cosa: Google Search no tiene acceso a nuestra web. Hay unos cuantos (no pocos) amantes de las teorias de la conspiración que nos hablan de que si instalamos Google Analytics en nuestras webs Google tiene acceso a todas nuestras métricas internas pero esto tiene poco sentido.
Por un lado, si esto fuese cierto, las webs con Google Analytics diferirían en posicionamiento de las que no lo usan. Por otro lado, esta claro que esta sería una acción totalmente ilegal por la que Google podría llevarse un buen palo. A estas alturas es muy pero que muy poco probable que Google incumpliese de forma tan obvia las leyes de protección de datos solo para alimentar su algoritmo. Por último, la cantidad de datos que maneja Google Analytics y la forma en la que estos están organizados hacen que el proceso que debería tener Google Search por detrás para valorar las páginas por su analítica web interna fuese realmetne descomunal. No, decididamente es un muy poco probable que Google Search se apoye lo más minimo en los datos de Google Analytics para nada. De hecho es poco probable que en Google se permita acceder a estos datos para ningún motivo.
Así pues, si Google no puede acceder a nuestras herramientas de analítica web ¿Cómo mide el comportamiento de los usuarios en ellas? Pues sencillo. Lo hace con lo que puede, y ¿con qué puede?. Pues con la experiencia de los usuarios en el propio buscador, algo que en realidad le es más que suficiente para valorar este rebote, pues la inmensa mayoría de usuarios que buscan algo vuelven una y otra vez al mismo buscador.
Para Google Search un rebote es una persona que clicka en un resultado del buscador (sí, Google mide todos los clicks que hacemos en el buscador) y en pocos segundos vuelve a la misma búsqueda. Si lo pensamos, este es el comportamiento de rebote de muchos usuarios no avanzados:
- Buscan >> Escogen un resultado >> NO les gusta >> y o vuelven atrás o vuelven a buscar lo mismo.
Eso es lo que Google Search mide como rebote.
Las pruebas de que Google Search mide el rebote
Aparte de las tipicas pruebas (siempre poco fiables, es es muy dificil conseguir la relación causa-efecto exacta) que parecían demostrar que al mejorar el rebote de una página esta mejoraba su posicionamiento ligeramente la verdadera prueba de que Google si que disponía de esa información llegó con el programa de bloqueo de sitios.
Este programa comenzó con una simple extensión para chrome que permitía a los usaurios eliminar algunos resultados que no les gustasen del buscador. Este añadido pronto se completó de forma nativa en el buscador.
Gracias a este programa pudimos comprobar como ante un rebote como el mencionado (buscar, clicar y volver a buscar lo mismo) Google pasaba a ofrecer un link bajo el resultado que te permitía eliminar ese resultado (pues entendía que era muy probable que no te hubiese gustado).
Esta estrategia se lanzó para detectar páginas Spam y conseguir que los usaurios consiguiesen ayudar a Google a detectar esas páginas. Yo creo que en ese sentido no consiguieron que los usuarios usasen demasiado la herramienta, pero en SEO nos demostró dos cosas:
1. Que Google estaba interesado en la experiencia del usuario con las páginas visitadas como factor de posicionamiento.
2. Que Google Search es muy capaz de detectar el rebote de la forma mencionada.
Así que el SEO basado en comportamientos (SEO performance) a día de hoy tiene sentido.
Google usa el Rebote como un factor de posicionamiento
Por desgracia no existen pruebas de esto. Pero es bastante evidente para muchos que así es. Tiene lógica, puede hacerse y vemos que ya se han movido en este sentido. Si no se hace se terminará haciendo.
El problema es que como decía antes es algo muy difícil de medir. Cuando mejoramos el rebote en nuestras páginas no solo afectamos a Google sino al usuario y por lo tanto no solo vamos a mejorar en rebote sino probablemente en links, tweets y menciones de todo tipo.
Por otro lado las propias acciones que hagamos para mejorar el rebote también van a afectar al posicionamiento de nuestras páginas por lo que no sabemos que parte proviene de la mejora del rebote y que parte por los cambios onPage.
Qué debemos hacer para mejorar nuestro rebote en Google Serach
Lo primero olvidarnos de nuestra herramienta de analítca para este efecto. Podremos manipular el rebote en Google Analytics (y de hecho es aconsejable al menos plantearselo) pero no va a haber relación entre la tasa de rebote de Analytics y la que preciba Google. Decididamente: No hay relación entre una cosa y la otra.
Esto también nos lleva a que no debemos tener en cuenta la tasa de rebote desde otros canales de marketing. Por ejemplo: que lancemos campañas de emailing con un alto porcentaje de rebote no va a afectarnos en SEO, pues Google Search no es consciente de ese rebote. Así que miremos el Rebote en cada canal por lo que es y como nos afecta.
Luego nuestro interés debe ser el de conseguir que el usuario consiga uno de estos dos hitos:
- Permanezca un mínimo de segundos antes de marcharse.
- O haga clic en alguna de nuestras páginas y así evitemos el fatal botón volver atrás.
Estas son ya las estrategias típicas que suelen seguirse en estrategias de anulación del rebote en el site. Entran dentro del marketing performance o del actualmente llamado CRO (Conversión Rate Optimization) por lo que realmente muchos cambios de una estrategia a otra no hay. Lo mismo que nos ayudará a mejorar objetivos con los usuarios en la web, nos ayudará en este SEO Performance.
Otras técnicas más "piratillas" pasan por conseguir esto mismo pero sin que el usuario realmetne esté más satisfecho con la web: básicamente obligandole a navegar para llegar al contenido o ténicamente consiguiendo que el botón hacia atrás deje de funcionarle. No comento mucho más sobre esto porque no creo que a nadie le convenga jugar con fuego a estos niveles... (la frustración del usuario no puede ser una herramienta valida para nada)
En conclusión
Todo lo que es marketing performance (lo orientemos a ratios de conversión o no) es interesante de cara a mejorar los resultados de nuestra web. Quizás una llamada de atención sobre este aspecto venida desde el SEO no nos venga mal... Ya lo hemos visto antes: en desarrollo llevamos tiempo viendo como la calidad de las webs mejora gracias a las necesidades SEO y no a la mejora de la web en si: maquetación, estructura, marcado semántico, WPO, etc.
Que vuelva a pasar no creo que sea malo, sino más bien al contrario. Lo que veo un problema es desarrollar complejos proyectos de mejora del rebote para SEO y esperar un retorno en visitas o posiciones con ello. No podremos medirlo, no podemos saberlo y en todo caso sabemos que no es un criterio fundamental, solo uno más. Yo animo a todo el mundo a mejorar sus tasas de rebote, pero sin perder el norte y pensando en el usuario y en el negocio no en el maldito algoritmo.
Hace unos 2 años empezó a hablarse de como podía estar evaluando Google la calidad de los resultados que ofrecía a los usuarios. Uno de los criterios que empezó a tomar fuerza hasta que a día de hoy está casi asumido por todos como un criterio usado por el buscador es el Rebote de las páginas web que se genera en sus resultados. Supuestamente este rebote estaría afectando negativamente al posicionamiento en el buscador.
Qué es el rebote
El problema principal es que la definición de rebote es técnicamente ambigua. Un Rebote es un usuario que entra en un site en el que no desea entrar y por lo tanto sale rapidamente de este. La alegoría esta clara, el usuario no entra en nuestra web sino que al entrar rebota de nuevo hacia fuera. Si bien lo que debe significar esta claro, llegados al punto de cómo medirlo técnicamente no existe una norma a seguir y cada herramienta lo mide como puede o simplemente como le da la gana.
Así pues, algunas herramientas toman solo una página vista, otras unos segundos, otras como omniture no lo traen como métrica por defecto y otras como seevolution evitan hablar del rebote indicando métricas nuevas (rebotados/no-rebotados por distintos criterios) con otros nombres (en ese caso Junk/Interested/Engaged en función de paso de 5 segundos en el site para "Interested" y alguna acción de click o scroll para "Engaged"). Realmente no puede haber un consenso porque no hay una solución buena.
En Google Analytics vimos que el rebote es manipulable y por lo tanto aun siendo una única métrica esta es distinta en cada caso.
Cómo mide el rebote Google Search
Llegados al terreno del SEO debemos tener clara una cosa: Google Search no tiene acceso a nuestra web. Hay unos cuantos (no pocos) amantes de las teorias de la conspiración que nos hablan de que si instalamos Google Analytics en nuestras webs Google tiene acceso a todas nuestras métricas internas pero esto tiene poco sentido.
Por un lado, si esto fuese cierto, las webs con Google Analytics diferirían en posicionamiento de las que no lo usan. Por otro lado, esta claro que esta sería una acción totalmente ilegal por la que Google podría llevarse un buen palo. A estas alturas es muy pero que muy poco probable que Google incumpliese de forma tan obvia las leyes de protección de datos solo para alimentar su algoritmo. Por último, la cantidad de datos que maneja Google Analytics y la forma en la que estos están organizados hacen que el proceso que debería tener Google Search por detrás para valorar las páginas por su analítica web interna fuese realmetne descomunal. No, decididamente es un muy poco probable que Google Search se apoye lo más minimo en los datos de Google Analytics para nada. De hecho es poco probable que en Google se permita acceder a estos datos para ningún motivo.
Así pues, si Google no puede acceder a nuestras herramientas de analítica web ¿Cómo mide el comportamiento de los usuarios en ellas? Pues sencillo. Lo hace con lo que puede, y ¿con qué puede?. Pues con la experiencia de los usuarios en el propio buscador, algo que en realidad le es más que suficiente para valorar este rebote, pues la inmensa mayoría de usuarios que buscan algo vuelven una y otra vez al mismo buscador.
Para Google Search un rebote es una persona que clicka en un resultado del buscador (sí, Google mide todos los clicks que hacemos en el buscador) y en pocos segundos vuelve a la misma búsqueda. Si lo pensamos, este es el comportamiento de rebote de muchos usuarios no avanzados:
- Buscan >> Escogen un resultado >> NO les gusta >> y o vuelven atrás o vuelven a buscar lo mismo.
Eso es lo que Google Search mide como rebote.
Las pruebas de que Google Search mide el rebote
Aparte de las tipicas pruebas (siempre poco fiables, es es muy dificil conseguir la relación causa-efecto exacta) que parecían demostrar que al mejorar el rebote de una página esta mejoraba su posicionamiento ligeramente la verdadera prueba de que Google si que disponía de esa información llegó con el programa de bloqueo de sitios.
Este programa comenzó con una simple extensión para chrome que permitía a los usaurios eliminar algunos resultados que no les gustasen del buscador. Este añadido pronto se completó de forma nativa en el buscador.
Gracias a este programa pudimos comprobar como ante un rebote como el mencionado (buscar, clicar y volver a buscar lo mismo) Google pasaba a ofrecer un link bajo el resultado que te permitía eliminar ese resultado (pues entendía que era muy probable que no te hubiese gustado).
Esta estrategia se lanzó para detectar páginas Spam y conseguir que los usaurios consiguiesen ayudar a Google a detectar esas páginas. Yo creo que en ese sentido no consiguieron que los usuarios usasen demasiado la herramienta, pero en SEO nos demostró dos cosas:
1. Que Google estaba interesado en la experiencia del usuario con las páginas visitadas como factor de posicionamiento.
2. Que Google Search es muy capaz de detectar el rebote de la forma mencionada.
Así que el SEO basado en comportamientos (SEO performance) a día de hoy tiene sentido.
Google usa el Rebote como un factor de posicionamiento
Por desgracia no existen pruebas de esto. Pero es bastante evidente para muchos que así es. Tiene lógica, puede hacerse y vemos que ya se han movido en este sentido. Si no se hace se terminará haciendo.
El problema es que como decía antes es algo muy difícil de medir. Cuando mejoramos el rebote en nuestras páginas no solo afectamos a Google sino al usuario y por lo tanto no solo vamos a mejorar en rebote sino probablemente en links, tweets y menciones de todo tipo.
Por otro lado las propias acciones que hagamos para mejorar el rebote también van a afectar al posicionamiento de nuestras páginas por lo que no sabemos que parte proviene de la mejora del rebote y que parte por los cambios onPage.
Qué debemos hacer para mejorar nuestro rebote en Google Serach
Lo primero olvidarnos de nuestra herramienta de analítca para este efecto. Podremos manipular el rebote en Google Analytics (y de hecho es aconsejable al menos plantearselo) pero no va a haber relación entre la tasa de rebote de Analytics y la que preciba Google. Decididamente: No hay relación entre una cosa y la otra.
Esto también nos lleva a que no debemos tener en cuenta la tasa de rebote desde otros canales de marketing. Por ejemplo: que lancemos campañas de emailing con un alto porcentaje de rebote no va a afectarnos en SEO, pues Google Search no es consciente de ese rebote. Así que miremos el Rebote en cada canal por lo que es y como nos afecta.
Luego nuestro interés debe ser el de conseguir que el usuario consiga uno de estos dos hitos:
- Permanezca un mínimo de segundos antes de marcharse.
- O haga clic en alguna de nuestras páginas y así evitemos el fatal botón volver atrás.
Estas son ya las estrategias típicas que suelen seguirse en estrategias de anulación del rebote en el site. Entran dentro del marketing performance o del actualmente llamado CRO (Conversión Rate Optimization) por lo que realmente muchos cambios de una estrategia a otra no hay. Lo mismo que nos ayudará a mejorar objetivos con los usuarios en la web, nos ayudará en este SEO Performance.
- Identificación del mensaje en un primer vistazo
- Diseño atractivo, claro y actual
- Especial atención al diseño sin scroll
- Coherencia entre keyword y contenido
- Evitar la publicidad invasiva
- Mejora de la velocidad de carga de página
- Navegación lógica y relacionada con el tema de la landing
- Llamadas a la acción
- Diferenciación de otras páginas similares
- Valores añadidos
- Etc.
Otras técnicas más "piratillas" pasan por conseguir esto mismo pero sin que el usuario realmetne esté más satisfecho con la web: básicamente obligandole a navegar para llegar al contenido o ténicamente consiguiendo que el botón hacia atrás deje de funcionarle. No comento mucho más sobre esto porque no creo que a nadie le convenga jugar con fuego a estos niveles... (la frustración del usuario no puede ser una herramienta valida para nada)
En conclusión
Todo lo que es marketing performance (lo orientemos a ratios de conversión o no) es interesante de cara a mejorar los resultados de nuestra web. Quizás una llamada de atención sobre este aspecto venida desde el SEO no nos venga mal... Ya lo hemos visto antes: en desarrollo llevamos tiempo viendo como la calidad de las webs mejora gracias a las necesidades SEO y no a la mejora de la web en si: maquetación, estructura, marcado semántico, WPO, etc.
Que vuelva a pasar no creo que sea malo, sino más bien al contrario. Lo que veo un problema es desarrollar complejos proyectos de mejora del rebote para SEO y esperar un retorno en visitas o posiciones con ello. No podremos medirlo, no podemos saberlo y en todo caso sabemos que no es un criterio fundamental, solo uno más. Yo animo a todo el mundo a mejorar sus tasas de rebote, pero sin perder el norte y pensando en el usuario y en el negocio no en el maldito algoritmo.
Etiquetas:
Información,
Seo y posicionamiento
10 dic 2012
Historia reciente de Google Search y su dudosa estrategia de calidad de resultados
Hace tiempo que tenía ganas de escribir esta entrada, pero siempre surge algo, sino es una nueva novedad es simplemente trabajo. Hoy, vengo con el cabreo de fondo que me trae una novedad que comentaba Pedro Serrano (twitter, linkedin ) que le había venído de Raven Tools donde por presiones de Google dejarán de rastrear las posiciones en las búsquedas que ocupan las webs.
Esto se suma a una serie de acciones, que vienen realizándose desde algo más de 2 años y que se disfrazan como a favor del usuario aunque como fondo siempre tienen un punto en comun: dificultar la labor SEO. Y digo esto porque muchas veces no encontramos ningún motivo lógico para los cambios salvo este, lo cual es como mínimo frustrante.
No me entendáis mal, no estoy a favor de que se permita realizar Spam en las webs ni de que una marca pueda ver sus visitas usurpadas por un SEO Spamer o directamente Black Hat. Cuando Google ha realizado cambios en pro de los resultados ofrecidos por su buscador no me ha importado demasiado. Cuando se lanzó Google Caffeine, en Enero de 2010 a todos nos pareció perfecto: se cambiaba la infraestructura de indexación de Google y eso le daba nuevas posibilidades; tanto para encontrar nuevos contenidos que antes no llegaban a ser indexados como para realizar cambios futuros como Google Instant que nos llegó solo unos meses después.
En ambos casos se afectó negativamente a ciertas estrategias SEO: Caffeine fue en contra de las webs pequeñas de marca que ahora veían como muchos nuevos contenidos pasaban a competir contra ellos. Lo peor de todo fue que eso inundó aún más los resultados de búsqueda de contenidos de baja calidad de foros secundarios, blogs cutres y webs hechas con dreamweaver. Pero se entendía el movimiento: el rastreo era sin duda mejor y pasábamos a tener muchos más millones de resultados donde escoger. Con Google Instant aquellos que se posicionaban a partir del resultado 11 (segunda página o búsquedas de 100 en 100) vieron como sus visitas descendían pues al usuario le resultó ya más fácil filtrar la búsqueda con los resultados sugeridos que ir pasando de página. Pero esto era lógico: Google empezaba a tener serias críticas sobre lo poco que se estaba modernizando: los usuarios empezaban a mirar hacia otros buscadores estéticamente más modernos y con ciertas novedades. Instant colocó a Google de nuevo en la cumbre al ofrecer una experiencia de búsqueda realmente rápida. Sin embargo al poco empezamos a ver que no solo se trataba de eso: Instant trajo una mayor presencia de la primera página y de la cabecera del buscador lo que sin duda benefició a Adwords que a partir de ahí y poco a poco ha ido ocupando cada vez más espacio en la cabecera de una búsqueda y en la página de búsqueda en general. Todos recordamos el gran cambio que se produjo cuando AdWords en la columna central pasó a ocupar 3 resultados en todas las búsquedas principales y lo que supuso de caída en clicks a los TOP1.
Como decía, estos cambios podían ser discutidos pero siempre tenían una orientación hacia el usuario que los hacían parecer resultados colaterales y no objetivos en si mismo. El problema empezó con 2011 donde el giro de estrategia del programa de calidad de resultados de Google se transformó en un ataque frontal hacia todo lo que oliese a SEO. Ahí vimos nacer al primer animalito del Zoologico de Google: un monísimo Google Panda que en teoría perseguía a los resultados de contenido de baja calidad. A España no nos llegó hasta agosto de ese año, pero los grandes cambios casi arbitrarios de posiciones que observábamos en USA nos tuvieron temblando todo el año. No nos engañemos, Panda puede haber limpiado de mucha porquería los resultados pero lo ha hecho mal: ha atacado a webs con contenido único y ha dejado a otras webs claramente replicadoras de contenidos impunes y esto es porque el realidad (al menos para mi) no se trata de un algoritmo que ataque al contenido de baja calidad, sino que ataca al SEO técnico: un SEO desarrollado por desarrolladores/programadores y no por generadores de contenidos y que por lo tanto provoca repeticiones de patrones en las webs: mismos esquemas de contenido, mismas estructuras web, misma cadencia en aparición de nuevas páginas, mismos modelos html, etc. Los premiados con ello han sido las webs caóticas de contenidos y las comunidades descontroladas, que con contenidos mediocres sacaron un gran partido a Panda. Panda también impulsó al SEO de contenidos al estrellato. Un tipo de SEO que por lo general era secundario pues la mayoría de Seniors venían de luchar mucho en el lado técnico y que vio como todo el mundo demandaba de golpe estrategias de contenido SEO. No me parece mal, pero creo que nos ha llevado a un panorama SEO donde hay mucho especialista que no tiene ningún control sobre la parte técnica y que en consecuencia no puede saber muy bien lo que hace. El SEO de Contenidos 100% es lo que le gusta a Google: generar información, generar material para que la gente use el buscador para encontrarlo. Pero este esfuerzo, sin una base técnica se transforma en una simple estrategia de saturar nuestro site con oportunidades para posicionarse (alias nuevas páginas) y por lo tanto, lo quieras o no, termina generando nuevas visitas. El problema de este SEO suele ser que a lo bruto no es rentable (los contenidos cuestan más de lo que aportan) y que sin una estrategia de marketing/conversión en la que apoyarlos estas todas las nuevas visitas no aportan negocio. Pero este es el mundo que se ha creado con Panda: un buscador que penaliza con una calidad dudosa y que por tanto ha generado búsquedas que para nada ayudan al usuario. Realmente los resultados de una búsqueda eran de mucha mayor calidad antes de Panda, solo tienes que haberlo seguido un poco para verlo.
Tras panda nos hemos encontrado, solo un par de meses después de observarlo en nuestro pais, con el famoso (not provided). Aquí nos lo disfrazaron como una mejora de seguridad para los usuarios cuando todos sabíamos lo que se buscaba de fondo. Ya no teníamos duda de las intenciones de Google, no le bastó con ir a atacar estrategias solo por ellas mismas sino que se comenzó con una estrategia que poco a poco nos iba a eliminar cada vez más información sobre que Keywords se usan para acceder a nuestro site. Un mazazo para la analítica del SEO que se hizo muy bien: comenzamos con un porcentaje afectado que en raros casos pasaba del 5% (y por lo tanto no nos afectaba tanto) para llegar actualmente a perder visibilidad en muchas web sobre aproximadamente la mitad del tráfico que nos trae el buscador. Para quien lo dude: si, un 50% de tráfico desconocido anula cualquier análisis que podamos hacer. ¿Ha mejorado esto la seguridad del usuario? En absoluto: las cookies abusivas y las infracciones del la LOPD ahí siguen sin problemas, lo único que se ha hecho ha sido privar a las webs de herramientas para decidir como acercarse más hacia sus usuarios/clientes potenciales. Habrá quien defienda que se putee a la empresa y su análisis del mercado, pero bien que cuando busquen ahora regalos por navidad les gustará poder encontrar quien vende lo que quieren.
Siguiendo con ataques directos cada vez más evidentes, llegamos al segundo animalito del zoológico de Google: Google Penguin, lanzado a principios de 2012. Aquí ya no se escondieron, lo explicaron como siempre de forma poco comprensible pero el objetivo estaba claro: ir a por la sobreoptimización. Si Panda buscaba patrones técnicos Penguin los buscaba ya directamente en la optimización hacia una keyword. Ahora las optimizaciones son malas, pero ¿cuando? Cuando son demasiado forzadas como para ser naturales. El problema de todo esto es que es Google quien juzga que es natural y que no. Google Penguin es una gran jugada pues parte del miedo que aun suscita Panda para obligar a todo el mundo a desoptimizar sus webs, pero veamos lo ilógico que resulta esto ¿Necesito un SEO para que desoptimize mi site? ¿Para eso no hubiese bastado con que no hubiese hecho SEO? Esa es la conclusión básica que se busca: el seo no sirve! Haz las cosas bien: preocúpate por tu usuario y por una calidad de tu web indiscutible y los resultados llegarán solos. Eso, sientiéndolo mucho debemos decir que es mentira, tu no te preocupes por el SEO y alguien ya se ocupará de robarte tu trozo del pastel en el Buscador. Siempre podrás recuperarlo a base de pagar Adwords y hacer aún más felíz a Google pero ya entramos en terrenos de campañas pagadas. La realidad es que Penguin solo ha atacado a aquellas estrategias que llevamos años viendo como peligrosas: Sobreoptimizar las webs. El post que acabo de poner fue escrito en Noviembre de 2009 y viene a decir lo mismo que Penguin: No te pases optimizando, se un poco listo y actúa emulando lo que hace internet por si solo. Pero claro, no era igual de cara una campaña de links despreocupados para potenciar una keyword que una estrategia más comedida y que buscase la naturalidad y por eso muchos se han visto afectados por Penguin. Esa gente tiene un problema pues tiene que naturalizar su optimización para sacarle partido. Pero solo esta gente, para el resto todo sigue igual y eso de dejar de optimizar si lo pensamos un poco no tiene sentido.
¿Qué está consiguiendo Penguin para el usaurio? ¿Menos Spam? ¿Realmente las webs que te encontrabas de Spam al buscar han desaparecido? Te ahorro las respuestas: no ha conseguido nada. Solo entorpecer las estrategias SEO de aquellas empresas que los hacían con recursos. A estas empresas hay que ponérselo difícil por un simple principio: Si tienen dinero para generar tantos links lo tienen para pagar Adwords.
A día de hoy nos llegan dos grandes cambios. La primera por fin vuelve a tener que ver con el usuario y es knowledge graph, que para búsquedas de items muy identificados transforma el buscador en una respuesta directa al usuario. Esto tiene sentido: evitan visitas tontas a la wikipedia, mejoran la exposición del contenido del que disponen en Google+ y el usuario al final es más feliz al leer directamente en Google lo que buscan. Por otro lado knowledge graph pasa los resultados de Google a un segundo o tercer plano dejándolos como algo anecdótico de la búsqueda y no como el resultado real. Esto va a hacer daño en productos integrados, pero por otro lado representa una gran oportunidad para los propietarios de esos Items que podrán posicionar su información oficial expuesta en el propio buscador, solo hay que aprender a hacerlo y hacerlo bien. Así que básicamente devuelve el poder de una búsqueda a su legítimo dueño. E¿l truco? Pues que para eso habrá que nutrir de información las herramientas de Google: Local, Google+, etc. Es una estrategia parecida a la que ya se hacía con Universal Search: incluir resultados de productos de Google (mapas, vídeos, imágenes) en el resultado de búsqueda para promocionarlo y de paso obligar a que se usen más las opciones para aportar contenido a estos servicios. Solo que se da un paso más y se cambia totalmente el comportamiento principal del buscador para algunas búsquedas. Esto tiene serias repercusiones para algunas búsquedas pero como decía antes, como favorece al usuario no es tan frustrante como los ya citados.
Otro de los cambios (esta vez más oculto al público) es el ataque directo a las herramientas de medición de rankings que era con el que comenzaba este post. Parece que Google está empezando contactar con herramientas de medición de keywords en base al uso de sus APIs. Básicamente si una empresa desea ofrecer este producto de medición de posiciones no podrá usar otras apis como las de Adwords (y hay que imaginar que también como las de analytics, maps, google+, etc.). Así Raven SEO Tools explica los motivos que le llevan a dejar de medir posiciones con su herramienta a partir del 2 de Enero. Este movimiento ya no tiene ninguna otra explicación que fastidiar el análisis SEO.
Conclusión
A Google no le gusta que sepamos que pasa con nuestras webs en sus resultados y en base a eso está actuando con todo lo que puede. Aquí he comentado solo los cambios más evidentes, pero sin duda hay más detalles que comentar como los nuevos buscadores verticales que están probando, los movimientos continuos de posiciones, la personalización de resultados llevada a niveles brutales, etc. Todo esto hace que cada vez funcionemos más por estadística y menos con datos reales. Añadimos a todo esto los cambios en Adwords (que darían para otro post entero) que poco a poco van siendo cada vez más presentes y más obligados y donde empezamos a ver productos de Google Shopping directamente promocionados de formas muy notorias. Yo creo que al final todo lo hecho en SEO no es más que otro de los pasos para optimizar Adwords: a mayor dificultad en SEO para las grandes empresas, mayor inversión terminarán recibiendo en adwords.
Esto se suma a una serie de acciones, que vienen realizándose desde algo más de 2 años y que se disfrazan como a favor del usuario aunque como fondo siempre tienen un punto en comun: dificultar la labor SEO. Y digo esto porque muchas veces no encontramos ningún motivo lógico para los cambios salvo este, lo cual es como mínimo frustrante.
No me entendáis mal, no estoy a favor de que se permita realizar Spam en las webs ni de que una marca pueda ver sus visitas usurpadas por un SEO Spamer o directamente Black Hat. Cuando Google ha realizado cambios en pro de los resultados ofrecidos por su buscador no me ha importado demasiado. Cuando se lanzó Google Caffeine, en Enero de 2010 a todos nos pareció perfecto: se cambiaba la infraestructura de indexación de Google y eso le daba nuevas posibilidades; tanto para encontrar nuevos contenidos que antes no llegaban a ser indexados como para realizar cambios futuros como Google Instant que nos llegó solo unos meses después.
En ambos casos se afectó negativamente a ciertas estrategias SEO: Caffeine fue en contra de las webs pequeñas de marca que ahora veían como muchos nuevos contenidos pasaban a competir contra ellos. Lo peor de todo fue que eso inundó aún más los resultados de búsqueda de contenidos de baja calidad de foros secundarios, blogs cutres y webs hechas con dreamweaver. Pero se entendía el movimiento: el rastreo era sin duda mejor y pasábamos a tener muchos más millones de resultados donde escoger. Con Google Instant aquellos que se posicionaban a partir del resultado 11 (segunda página o búsquedas de 100 en 100) vieron como sus visitas descendían pues al usuario le resultó ya más fácil filtrar la búsqueda con los resultados sugeridos que ir pasando de página. Pero esto era lógico: Google empezaba a tener serias críticas sobre lo poco que se estaba modernizando: los usuarios empezaban a mirar hacia otros buscadores estéticamente más modernos y con ciertas novedades. Instant colocó a Google de nuevo en la cumbre al ofrecer una experiencia de búsqueda realmente rápida. Sin embargo al poco empezamos a ver que no solo se trataba de eso: Instant trajo una mayor presencia de la primera página y de la cabecera del buscador lo que sin duda benefició a Adwords que a partir de ahí y poco a poco ha ido ocupando cada vez más espacio en la cabecera de una búsqueda y en la página de búsqueda en general. Todos recordamos el gran cambio que se produjo cuando AdWords en la columna central pasó a ocupar 3 resultados en todas las búsquedas principales y lo que supuso de caída en clicks a los TOP1.
Como decía, estos cambios podían ser discutidos pero siempre tenían una orientación hacia el usuario que los hacían parecer resultados colaterales y no objetivos en si mismo. El problema empezó con 2011 donde el giro de estrategia del programa de calidad de resultados de Google se transformó en un ataque frontal hacia todo lo que oliese a SEO. Ahí vimos nacer al primer animalito del Zoologico de Google: un monísimo Google Panda que en teoría perseguía a los resultados de contenido de baja calidad. A España no nos llegó hasta agosto de ese año, pero los grandes cambios casi arbitrarios de posiciones que observábamos en USA nos tuvieron temblando todo el año. No nos engañemos, Panda puede haber limpiado de mucha porquería los resultados pero lo ha hecho mal: ha atacado a webs con contenido único y ha dejado a otras webs claramente replicadoras de contenidos impunes y esto es porque el realidad (al menos para mi) no se trata de un algoritmo que ataque al contenido de baja calidad, sino que ataca al SEO técnico: un SEO desarrollado por desarrolladores/programadores y no por generadores de contenidos y que por lo tanto provoca repeticiones de patrones en las webs: mismos esquemas de contenido, mismas estructuras web, misma cadencia en aparición de nuevas páginas, mismos modelos html, etc. Los premiados con ello han sido las webs caóticas de contenidos y las comunidades descontroladas, que con contenidos mediocres sacaron un gran partido a Panda. Panda también impulsó al SEO de contenidos al estrellato. Un tipo de SEO que por lo general era secundario pues la mayoría de Seniors venían de luchar mucho en el lado técnico y que vio como todo el mundo demandaba de golpe estrategias de contenido SEO. No me parece mal, pero creo que nos ha llevado a un panorama SEO donde hay mucho especialista que no tiene ningún control sobre la parte técnica y que en consecuencia no puede saber muy bien lo que hace. El SEO de Contenidos 100% es lo que le gusta a Google: generar información, generar material para que la gente use el buscador para encontrarlo. Pero este esfuerzo, sin una base técnica se transforma en una simple estrategia de saturar nuestro site con oportunidades para posicionarse (alias nuevas páginas) y por lo tanto, lo quieras o no, termina generando nuevas visitas. El problema de este SEO suele ser que a lo bruto no es rentable (los contenidos cuestan más de lo que aportan) y que sin una estrategia de marketing/conversión en la que apoyarlos estas todas las nuevas visitas no aportan negocio. Pero este es el mundo que se ha creado con Panda: un buscador que penaliza con una calidad dudosa y que por tanto ha generado búsquedas que para nada ayudan al usuario. Realmente los resultados de una búsqueda eran de mucha mayor calidad antes de Panda, solo tienes que haberlo seguido un poco para verlo.
Tras panda nos hemos encontrado, solo un par de meses después de observarlo en nuestro pais, con el famoso (not provided). Aquí nos lo disfrazaron como una mejora de seguridad para los usuarios cuando todos sabíamos lo que se buscaba de fondo. Ya no teníamos duda de las intenciones de Google, no le bastó con ir a atacar estrategias solo por ellas mismas sino que se comenzó con una estrategia que poco a poco nos iba a eliminar cada vez más información sobre que Keywords se usan para acceder a nuestro site. Un mazazo para la analítica del SEO que se hizo muy bien: comenzamos con un porcentaje afectado que en raros casos pasaba del 5% (y por lo tanto no nos afectaba tanto) para llegar actualmente a perder visibilidad en muchas web sobre aproximadamente la mitad del tráfico que nos trae el buscador. Para quien lo dude: si, un 50% de tráfico desconocido anula cualquier análisis que podamos hacer. ¿Ha mejorado esto la seguridad del usuario? En absoluto: las cookies abusivas y las infracciones del la LOPD ahí siguen sin problemas, lo único que se ha hecho ha sido privar a las webs de herramientas para decidir como acercarse más hacia sus usuarios/clientes potenciales. Habrá quien defienda que se putee a la empresa y su análisis del mercado, pero bien que cuando busquen ahora regalos por navidad les gustará poder encontrar quien vende lo que quieren.
Siguiendo con ataques directos cada vez más evidentes, llegamos al segundo animalito del zoológico de Google: Google Penguin, lanzado a principios de 2012. Aquí ya no se escondieron, lo explicaron como siempre de forma poco comprensible pero el objetivo estaba claro: ir a por la sobreoptimización. Si Panda buscaba patrones técnicos Penguin los buscaba ya directamente en la optimización hacia una keyword. Ahora las optimizaciones son malas, pero ¿cuando? Cuando son demasiado forzadas como para ser naturales. El problema de todo esto es que es Google quien juzga que es natural y que no. Google Penguin es una gran jugada pues parte del miedo que aun suscita Panda para obligar a todo el mundo a desoptimizar sus webs, pero veamos lo ilógico que resulta esto ¿Necesito un SEO para que desoptimize mi site? ¿Para eso no hubiese bastado con que no hubiese hecho SEO? Esa es la conclusión básica que se busca: el seo no sirve! Haz las cosas bien: preocúpate por tu usuario y por una calidad de tu web indiscutible y los resultados llegarán solos. Eso, sientiéndolo mucho debemos decir que es mentira, tu no te preocupes por el SEO y alguien ya se ocupará de robarte tu trozo del pastel en el Buscador. Siempre podrás recuperarlo a base de pagar Adwords y hacer aún más felíz a Google pero ya entramos en terrenos de campañas pagadas. La realidad es que Penguin solo ha atacado a aquellas estrategias que llevamos años viendo como peligrosas: Sobreoptimizar las webs. El post que acabo de poner fue escrito en Noviembre de 2009 y viene a decir lo mismo que Penguin: No te pases optimizando, se un poco listo y actúa emulando lo que hace internet por si solo. Pero claro, no era igual de cara una campaña de links despreocupados para potenciar una keyword que una estrategia más comedida y que buscase la naturalidad y por eso muchos se han visto afectados por Penguin. Esa gente tiene un problema pues tiene que naturalizar su optimización para sacarle partido. Pero solo esta gente, para el resto todo sigue igual y eso de dejar de optimizar si lo pensamos un poco no tiene sentido.
¿Qué está consiguiendo Penguin para el usaurio? ¿Menos Spam? ¿Realmente las webs que te encontrabas de Spam al buscar han desaparecido? Te ahorro las respuestas: no ha conseguido nada. Solo entorpecer las estrategias SEO de aquellas empresas que los hacían con recursos. A estas empresas hay que ponérselo difícil por un simple principio: Si tienen dinero para generar tantos links lo tienen para pagar Adwords.
A día de hoy nos llegan dos grandes cambios. La primera por fin vuelve a tener que ver con el usuario y es knowledge graph, que para búsquedas de items muy identificados transforma el buscador en una respuesta directa al usuario. Esto tiene sentido: evitan visitas tontas a la wikipedia, mejoran la exposición del contenido del que disponen en Google+ y el usuario al final es más feliz al leer directamente en Google lo que buscan. Por otro lado knowledge graph pasa los resultados de Google a un segundo o tercer plano dejándolos como algo anecdótico de la búsqueda y no como el resultado real. Esto va a hacer daño en productos integrados, pero por otro lado representa una gran oportunidad para los propietarios de esos Items que podrán posicionar su información oficial expuesta en el propio buscador, solo hay que aprender a hacerlo y hacerlo bien. Así que básicamente devuelve el poder de una búsqueda a su legítimo dueño. E¿l truco? Pues que para eso habrá que nutrir de información las herramientas de Google: Local, Google+, etc. Es una estrategia parecida a la que ya se hacía con Universal Search: incluir resultados de productos de Google (mapas, vídeos, imágenes) en el resultado de búsqueda para promocionarlo y de paso obligar a que se usen más las opciones para aportar contenido a estos servicios. Solo que se da un paso más y se cambia totalmente el comportamiento principal del buscador para algunas búsquedas. Esto tiene serias repercusiones para algunas búsquedas pero como decía antes, como favorece al usuario no es tan frustrante como los ya citados.
Otro de los cambios (esta vez más oculto al público) es el ataque directo a las herramientas de medición de rankings que era con el que comenzaba este post. Parece que Google está empezando contactar con herramientas de medición de keywords en base al uso de sus APIs. Básicamente si una empresa desea ofrecer este producto de medición de posiciones no podrá usar otras apis como las de Adwords (y hay que imaginar que también como las de analytics, maps, google+, etc.). Así Raven SEO Tools explica los motivos que le llevan a dejar de medir posiciones con su herramienta a partir del 2 de Enero. Este movimiento ya no tiene ninguna otra explicación que fastidiar el análisis SEO.
Conclusión
A Google no le gusta que sepamos que pasa con nuestras webs en sus resultados y en base a eso está actuando con todo lo que puede. Aquí he comentado solo los cambios más evidentes, pero sin duda hay más detalles que comentar como los nuevos buscadores verticales que están probando, los movimientos continuos de posiciones, la personalización de resultados llevada a niveles brutales, etc. Todo esto hace que cada vez funcionemos más por estadística y menos con datos reales. Añadimos a todo esto los cambios en Adwords (que darían para otro post entero) que poco a poco van siendo cada vez más presentes y más obligados y donde empezamos a ver productos de Google Shopping directamente promocionados de formas muy notorias. Yo creo que al final todo lo hecho en SEO no es más que otro de los pasos para optimizar Adwords: a mayor dificultad en SEO para las grandes empresas, mayor inversión terminarán recibiendo en adwords.
Etiquetas:
Información,
Seo y posicionamiento
¿Cómo y Cuándo compartir o publicar contenidos en Facebook?
Seguro que más de una vez te has preguntado qué tienes que hacer en Facebook para que tus acciones tengan una mayor repercusión. Para que te hagas una idea, aquí tienes las conclusiones de un estudio llevado a cabo durante un periodo de 28 días, analizando la actividad de las fanpages de importantes empresas alemanas.
Primera regla de oro: No satures al destinatario con tu contenido
Existe una relación inversamente proporcional entre la frecuencia de las actualizaciones y la viralidad que éstas obtienen. Concretamente este estudio indica que las empresas que publicaron cada 3 días, obtuvieron un mayor porcentaje de repercusión, concretamente del 0,54%, frente al 0,1% de aquellas que publicaron varias veces al día, llegando a realizar más de 50 actualizaciones. Además, la saturación es el principal motivo que lleva a los fans a dejar de seguir a una marca.
¿Cuándo publicar?
Lo ideal para alcanzar a la audiencia en Facebook es aprovechar las horas de asueto, que suelen ser la hora del almuerzo y después del trabajo. Es durante ese periodo cuando los fans están especialmente activos en redes sociales, así como receptivos a las ofertas y a interactuar con el contenido, siempre que éste sea de su interés. Por esta razón los domingos se han constituido como el Día del Fan; es cuando se ha experimentado, con diferencia, una mayor notoriedad de las actualizaciones en esta red social, favorecido asimismo por una menor actividad por parte de las empresas, lo que supone menos competencia y más visibilidad.
Lo bueno, si es breve... Los usuarios aceptan una extensión máxima de 3 líneas de texto, a partir de ahí, desciende notablemente su interés. Utiliza mensajes directos, con un lenguaje claro y sencillo, que incite a la acción. Los ingredientes básicos de la viralidad son la sencillez (92%), la precisión (56%) y el componente emocional (64%), añádelos a tu receta de marketing de contenidos.
EL poder de una imagen
En Social Media, el contenido con imágenes genera un mayor impacto y atención. Además, las imágenes cuentan con un alto componente de viralidad en Facebook, especialmente si éstas están agrupadas en álbumes, lo que puede suponer un 73% más de viralidad. Sin embargo, los vídeos no gozan de la misma aceptación en esta plataforma social (-85%) dado que requieren de una atención prolongada por parte del usuario, así como de una conexión online de alta calidad. Por tanto, recurre a ellos únicamente cuando el contenido merezca la pena.
Por su parte, se ha experimentado un auge cada vez mayor de las encuestas, alcanzando un 139% más de viralidad. Nos encontramos en un medio eminentemente participativo, donde los usuarios están deseando interactuar, aportar sus sugerencias y comentarios, si la ocasión lo merece. Aprovecha esta predisposición por parte de tus fans para averiguar su percepción de la empresa, o qué opinan sobre tu nuevo producto, anímales a compartir sus experiencias con la marca; incentívales con regalos y promociones y no podrán resistirse.
Primera regla de oro: No satures al destinatario con tu contenido
Existe una relación inversamente proporcional entre la frecuencia de las actualizaciones y la viralidad que éstas obtienen. Concretamente este estudio indica que las empresas que publicaron cada 3 días, obtuvieron un mayor porcentaje de repercusión, concretamente del 0,54%, frente al 0,1% de aquellas que publicaron varias veces al día, llegando a realizar más de 50 actualizaciones. Además, la saturación es el principal motivo que lleva a los fans a dejar de seguir a una marca.
¿Cuándo publicar?
Lo ideal para alcanzar a la audiencia en Facebook es aprovechar las horas de asueto, que suelen ser la hora del almuerzo y después del trabajo. Es durante ese periodo cuando los fans están especialmente activos en redes sociales, así como receptivos a las ofertas y a interactuar con el contenido, siempre que éste sea de su interés. Por esta razón los domingos se han constituido como el Día del Fan; es cuando se ha experimentado, con diferencia, una mayor notoriedad de las actualizaciones en esta red social, favorecido asimismo por una menor actividad por parte de las empresas, lo que supone menos competencia y más visibilidad.
Lo bueno, si es breve... Los usuarios aceptan una extensión máxima de 3 líneas de texto, a partir de ahí, desciende notablemente su interés. Utiliza mensajes directos, con un lenguaje claro y sencillo, que incite a la acción. Los ingredientes básicos de la viralidad son la sencillez (92%), la precisión (56%) y el componente emocional (64%), añádelos a tu receta de marketing de contenidos.
EL poder de una imagen
En Social Media, el contenido con imágenes genera un mayor impacto y atención. Además, las imágenes cuentan con un alto componente de viralidad en Facebook, especialmente si éstas están agrupadas en álbumes, lo que puede suponer un 73% más de viralidad. Sin embargo, los vídeos no gozan de la misma aceptación en esta plataforma social (-85%) dado que requieren de una atención prolongada por parte del usuario, así como de una conexión online de alta calidad. Por tanto, recurre a ellos únicamente cuando el contenido merezca la pena.
Por su parte, se ha experimentado un auge cada vez mayor de las encuestas, alcanzando un 139% más de viralidad. Nos encontramos en un medio eminentemente participativo, donde los usuarios están deseando interactuar, aportar sus sugerencias y comentarios, si la ocasión lo merece. Aprovecha esta predisposición por parte de tus fans para averiguar su percepción de la empresa, o qué opinan sobre tu nuevo producto, anímales a compartir sus experiencias con la marca; incentívales con regalos y promociones y no podrán resistirse.
Etiquetas:
Blogging,
Información,
Seo y posicionamiento
7 maneras de aportar valor a tus seguidores (Twitter)
Twitter es, sin dudas, una gran herramienta de alcance social y
profesional. Se puede utilizar para construir su reputación, para
establecerse como experto, para desarrollar una red de contactos o para
hacer crecer su negocio. También se usa para conocer nuevos amigos o
para encontrar personas con intereses similares. Independientemente del
uso que le demos, existen algunas formas de sacar el máximo provecho de
ella, y es dándole valor agregado a nuestros seguidores. Las 7 maneras
para aportar valor a sus seguidores son las siguientes:
- Publicar información sobre eventos profesionales o sociales que sean de interés de sus followers.
- Presentar a sus seguidores si usted considera que ellos pueden beneficiarse entre sí.
- Responder las dudas o consultas que las personas realizan en Twitter.
- Compartir artículos de calidad, que puedan ser útiles para las personas de su industria o para los que tienen los mismos intereses o aficiones.
- Recomendar recursos que parezcan interesantes y educativos, como libros, blogs, productos, sitios para ir a tomar algo, películas, documentales, etc. El abanico de posibilidades es enorme en este punto.
- Proporcionar una visión única u observaciones que puedan ser útiles para otras personas.
- Pasar la voz sobre oportunidades frescas o interesantes (por ejemplo, concursos, regalos, cupones, ofertas, etc.)
Etiquetas:
Blogging,
Información,
Seo y posicionamiento
4 dic 2012
WPO y SEO para WordPress
En el reciente congreso realizado por Punt multimedia en Barcelona, Javier Casares participó con 2 conferencias realmente interesantes, basadas en su experiencia en el uso profesional de WordPress.
En concreto, las conferencias versaron sobre SEO en WordPress, donde destiló muchos consejos básicos – pero imprescindibles – a la hora de configurar adecuadamente WordPress para el posicionamiento en buscadores, y por otra parte otra sobre WPO con WordPress, en la que propuso la que, a su juicio, sería la configuración ideal de WordPress para un rendimiento óptimo para una web de alto tráfico.
Es esta última la, en este caso a mi entender, más interesante, por ser un tema menos tratado habitualmente, y en la que propone un tandem ideal:
No obstante, también hay estupendos consejos de optimización de WordPress así que es un documento imprescindible.
Aquí tienes las susodichas, que debemos agradecer a Javier:
WordPress SEO (por Javier Casares) v.1.0 (534.38 kB )
WordPress WPO (por Javier Casares) v.1.0 (519.88 kB )
Como plus este otro documento de referencia sobre Web Performance Optimization, también de Javier, realmente interesante:
Web Performance Optimization (por Javier Casares) v.1.0 (949.49 kB )
En concreto, las conferencias versaron sobre SEO en WordPress, donde destiló muchos consejos básicos – pero imprescindibles – a la hora de configurar adecuadamente WordPress para el posicionamiento en buscadores, y por otra parte otra sobre WPO con WordPress, en la que propuso la que, a su juicio, sería la configuración ideal de WordPress para un rendimiento óptimo para una web de alto tráfico.
Es esta última la, en este caso a mi entender, más interesante, por ser un tema menos tratado habitualmente, y en la que propone un tandem ideal:
- WordPress limpio
- Configuración de mínimos
- Redistribución de cargas por servidores
- Varnish y WordPress
No obstante, también hay estupendos consejos de optimización de WordPress así que es un documento imprescindible.
Aquí tienes las susodichas, que debemos agradecer a Javier:


Como plus este otro documento de referencia sobre Web Performance Optimization, también de Javier, realmente interesante:

Etiquetas:
Información,
Recursos,
Seo y posicionamiento,
Wordpress
Los emprendedores y su negación a las críticas
El mantra de los emprendedores buena onda y que hacen todo porque quiere cambiar al mundo esta acompañado por dos mitos bastante estúpidos; la idea de que los ganadores no abandonan que es simplemente ridícula y la idea de que las críticas son destructivas porque “no nos entienden”, pero tal vez estos dos factores de riesgo para un startup están mucho más relacionados de lo que parece.
“No vamos en web-first porque la gente usa la web más que el móvil. Puedo utilizar mi teléfono más que otra cosa. Sólo que no creo que un emprendedor que quiere una oportunidad real de éxito debe comenzar su negocio en ese lugar. La plataforma Android y iOS nos llevó a fracasar al atraernos con el barniz de los usuarios, pero en realidad vas a pelear más duro por ellos de lo que vale la pena para tu negocio. Por supuesto que necesitamos una aplicación móvil para atender a sus clientes y competir, pero sólo debe ser parte de su estrategia y no la cosa entera.” Why We’re Pivoting from Mobile-first to Web-first
Emprendedor en etapa de negación
Respeto y mucho a Vibhu Norby pero esta frase es un compendio de explicaciones para decir que “la culpa del fracaso es de otros” en realidad “fue de la plataforma móvil” y que “los usuarios no pagan” y que “Google hace mucha plata con Android” cuando la realidad es mucho, pero mucho, más simple: ¿y si el producto simplemente no funcionaba?
¿Y si simplemente el modelo basado en publicidad no servía para cubrir los costos de adquisición de usuario o si la aplicación no llamaba la atención de anunciantes, patrocinadores o potenciales compradores?
Cuando uno generaliza diciendo que “mobile first” es una estrategia errada para todos… está mostrando que no sabe definir puntos específicos de error y que, como líder de un startup, no está pivoteando (palabra de moda para decir “cambiemos o morimos”) sino que lo hace o se funde.
Emprendedores que no abandonan
Pero si sos emprendedor y tomás este mantra y lo internalizás, vas a cometer el peor pecado del emprendedor que es no escuchar a nadie. Las críticas son feas y siempre lo digo, suenan como si te insultaran por todo el trabajo que pusiste.
Pero las críticas son necesarias y de todo podés sacar algo bueno, aunque sea simplemente un reality-check que te ayude a corregir el rumbo antes de decir que las apps móviles no sirven sino como parte de una estrategia porque eso es decir que el universo de las Apps está errado.
Abran los oídos y en vez de correr a los blogs/medios/analistas que te palmean la espalda, escuchen a todos y traten de formar su propia opinión antes de quedar como emprendedores en estado de negación ;)
“No vamos en web-first porque la gente usa la web más que el móvil. Puedo utilizar mi teléfono más que otra cosa. Sólo que no creo que un emprendedor que quiere una oportunidad real de éxito debe comenzar su negocio en ese lugar. La plataforma Android y iOS nos llevó a fracasar al atraernos con el barniz de los usuarios, pero en realidad vas a pelear más duro por ellos de lo que vale la pena para tu negocio. Por supuesto que necesitamos una aplicación móvil para atender a sus clientes y competir, pero sólo debe ser parte de su estrategia y no la cosa entera.” Why We’re Pivoting from Mobile-first to Web-first
Emprendedor en etapa de negación
Respeto y mucho a Vibhu Norby pero esta frase es un compendio de explicaciones para decir que “la culpa del fracaso es de otros” en realidad “fue de la plataforma móvil” y que “los usuarios no pagan” y que “Google hace mucha plata con Android” cuando la realidad es mucho, pero mucho, más simple: ¿y si el producto simplemente no funcionaba?
¿Y si simplemente el modelo basado en publicidad no servía para cubrir los costos de adquisición de usuario o si la aplicación no llamaba la atención de anunciantes, patrocinadores o potenciales compradores?
Cuando uno generaliza diciendo que “mobile first” es una estrategia errada para todos… está mostrando que no sabe definir puntos específicos de error y que, como líder de un startup, no está pivoteando (palabra de moda para decir “cambiemos o morimos”) sino que lo hace o se funde.
Emprendedores que no abandonan
Pero si sos emprendedor y tomás este mantra y lo internalizás, vas a cometer el peor pecado del emprendedor que es no escuchar a nadie. Las críticas son feas y siempre lo digo, suenan como si te insultaran por todo el trabajo que pusiste.
Pero las críticas son necesarias y de todo podés sacar algo bueno, aunque sea simplemente un reality-check que te ayude a corregir el rumbo antes de decir que las apps móviles no sirven sino como parte de una estrategia porque eso es decir que el universo de las Apps está errado.
Abran los oídos y en vez de correr a los blogs/medios/analistas que te palmean la espalda, escuchen a todos y traten de formar su propia opinión antes de quedar como emprendedores en estado de negación ;)
Etiquetas:
Blogging,
Información
Shareaholic, una extensión de Google Chrome para compartir enlaces interesantes
Empezamos el último mes del año, contándote sobre una extensión para
el navegador de Google que te permite compartir de manera fácil y
sencilla todo lo que desees en las diferentes redes y plataformas
sociales. Se trata de Shareaholic,
y es una excelente manera de compartir el mejor contenido de la web con
todos nuestros amigos y conocidos. De esta forma, podrás convertirte en
un excelente propagador de buen contenido en la web, aunque suene
gracioso. Muchos perfiles de las redes sociales son valorados por sus
contactos, justamente por la calidad de la información que comparten. Y
esta extensión podría ayudarnos en esa tarea, haciéndolo todo más
simple, y con cero complicaciones.
Shareaholic es simple de usar y muy personalizable. Una vez que hayas instalado la extensión, podrás crearte una cuenta gratuita para realizar un seguimiento de todos los enlaces que hayas compartido y seguir a otros usuarios de la extensión, para ver justamente qué es lo que están compartiendo.
Luego, deberás configurar los servicios en los que deseas utilizar la extensión. La primera vez que vayas a utilizarlos, se te pedirá que inicies sesión y vincules la cuenta con esa red. Esto podría llevarte un buen rato, si deseas compartir enlaces en muchos sitios a la vez. También puedes optar entre una larga lista de acortadores de URL. Hecho todo esto, podrás comenzar a compartir los contenidos que desees, incluso seleccionado en qué servicio social deseas publicarlos.
Valoración: Una manera muy sencilla para compartir todos aquellos contenidos relevantes, como ser buena información, posts, notas, videos, historietas, artículos de humor, etc. Ideal para quienes se pasan horas y horas navegando en la web.
Shareaholic es simple de usar y muy personalizable. Una vez que hayas instalado la extensión, podrás crearte una cuenta gratuita para realizar un seguimiento de todos los enlaces que hayas compartido y seguir a otros usuarios de la extensión, para ver justamente qué es lo que están compartiendo.
Luego, deberás configurar los servicios en los que deseas utilizar la extensión. La primera vez que vayas a utilizarlos, se te pedirá que inicies sesión y vincules la cuenta con esa red. Esto podría llevarte un buen rato, si deseas compartir enlaces en muchos sitios a la vez. También puedes optar entre una larga lista de acortadores de URL. Hecho todo esto, podrás comenzar a compartir los contenidos que desees, incluso seleccionado en qué servicio social deseas publicarlos.
Valoración: Una manera muy sencilla para compartir todos aquellos contenidos relevantes, como ser buena información, posts, notas, videos, historietas, artículos de humor, etc. Ideal para quienes se pasan horas y horas navegando en la web.
Etiquetas:
Información,
Recursos
28 nov 2012
La opinión de los trabajadores de Google influye en los resultados de búsqueda
¿No existe un algoritmo por medio del cual se ordenan los resultados de búsqueda de Google? Si existe, no debe cundir el pánico en cuanto a todo lo que sabemos hasta ahora de técnicas SEO, pero lo que acabamos de saber es que además de él, trabajadores de Google también filtran y puntúan los resultados de búsqueda manualmente.
Son los trabajadores de los que nunca se ha oido hablar, seres “invisibles” que con sus puntuaciones también influyen en la posición de los resultados que ofrece el buscador. Ahora los conocemos gracias a un manual interno de 160 páginas dedicado a los “raters” (en inglés, algo así como los “puntuadores”), al que ha tenido acceso la web The Register.
Ellos serían los encargados de juzgar la calidad y la relevancia de las páginas que aparecen en el motor de búsqueda, y según el manual, deben hacerlo de acuerdo a su relevancia, nivel de spam y calidad.
Así las cosas, aunque Google quiera hacernos creer que todo depende de un algoritmo controlado por un “super-ordenador” sin mediación humana, lo cierto es que en las búsquedas sí que influye el criterio de estos trabajadores que, por cierto, trabajan desde casa valorando la calidad de las webs.
Según el manual, los “raters” tienen que dar a las webs una clasificación, que puede variar entre vital, útil, relevante, poco relevante, fuera de lugar e inclasificable. En cuanto a los niveles de spam, se clasifica como sin spam, posible spam, spam, pornográfica o maliciosa.
Son los trabajadores de los que nunca se ha oido hablar, seres “invisibles” que con sus puntuaciones también influyen en la posición de los resultados que ofrece el buscador. Ahora los conocemos gracias a un manual interno de 160 páginas dedicado a los “raters” (en inglés, algo así como los “puntuadores”), al que ha tenido acceso la web The Register.
Ellos serían los encargados de juzgar la calidad y la relevancia de las páginas que aparecen en el motor de búsqueda, y según el manual, deben hacerlo de acuerdo a su relevancia, nivel de spam y calidad.
Así las cosas, aunque Google quiera hacernos creer que todo depende de un algoritmo controlado por un “super-ordenador” sin mediación humana, lo cierto es que en las búsquedas sí que influye el criterio de estos trabajadores que, por cierto, trabajan desde casa valorando la calidad de las webs.
Según el manual, los “raters” tienen que dar a las webs una clasificación, que puede variar entre vital, útil, relevante, poco relevante, fuera de lugar e inclasificable. En cuanto a los niveles de spam, se clasifica como sin spam, posible spam, spam, pornográfica o maliciosa.
Etiquetas:
Actualidad,
Información,
Seo y posicionamiento
Cómo Escribir Un Artículo
La razón de ser del blogger es compartir información. Para ello se vale del blog, que es un canal de comunicación a través del cual el blogger comparte sus conocimientos, experiencias, relatos o noticias. Pero escribir un artículo para ser publicado en internet tiene ciertas particularidades con las que todo blogger ha de contar.
Por eso el proceso mediante el cual una idea se transforma en un artículo del blog se hace siguiendo un método distinto al usado para un artículo impreso en papel. Según mi experiencia como blogger, hay cinco pasos para escribir un artículo destinado a ser publicado en internet:
1.- Las ideas aparecen donde menos te lo esperas.
Sea cual sea la temática del blog, un blogger ha de estar siempre recopilando ideas para nuevos artículos. Alguna noticia en prensa, una experiencia personal, un debate de tv, etc. De cualquier sitio puede salir la idea para un artículo.
Para mi blog sobre ayudas para buscar trabajo siempre estoy atento a cualquier cosa de la que pueda hablar en el blog. Y cada vez que aparece una posible idea, la anoto en el bloc de notas de mi teléfono móvil. De esa forma cuando quiero escribir un artículo siempre tengo un “banco de ideas” y no pierdo el tiempo buscándolas en ese momento.
2.- Antes de ponerte a escribir, investiga sobre el tema.
Salvo que se vaya a escribir sobre algo de lo que uno sea un auténtico experto, o se trate de una experiencia personal, lo usual es ampliar la información acerca del tema en cuestión. Obtener datos estadísticos, otros puntos de vista u otras opiniones al respecto va a enriquecer mucho tu trabajo.
Yo utilizo como fuente de información generalmente internet. Lo que hago es anotar en un papel las cosas que más me van llamando la atención o que creo que me sirven y luego las utilizo para escribir el artículo.
3.- Estudio SEO. Analiza las palabras clave principales.
¿Cuál es la temática del artículo?, ¿qué términos lo definen más exactamente?. Escribir un artículo para ser publicado en internet requiere que la redacción del mismo se adapte también a los buscadores. Y éstos, grosso modo, deducen la temática de un artículo en función de estas palabras clave, lo que les sirve para posicionar tu artículo de una u otra forma en los resultados de búsqueda para esos términos. Y esto supone que recibamos más o menos visitas procedentes de las búsquedas de los usuarios.
A mí me gusta utilizar la herramienta para palabras clave que tiene Google Adwords. Considero que es la mejor y más completa. Mi estrategia, dado que mi blog es aún muy modesto, es buscar palabras clave con un nivel de competencia medio o bajo. Así va a ser más fácil su posicionamiento entre los primeros puestos. Escribiendo muchos artículos y posicionandolos bien, consigo que la mayor parte del tráfico que llega a mi blog, proceda de los buscadores.
4.- La redacción del artículo. Un trabajo a dos bandas.
Todo blogger ha de tener en cuenta que debe escribir el artículo pensando en el lector y también en los motores de búsqueda. Por eso tiene que redactarlo de modo que tenga una perfecta comprensión por parte de quien lo lee, pero también insertando esas palabras clave estratégicamente para que los buscadores valoren y clasifiquen correctamente el artículo.
Según mi experiencia como blogger y mis conocimientos de técnicas SEO, lo que hago es poner esas palabras clave a lo largo de todo el texto. Y obligatoriamente en el título del artículo y el primer párrafo. Tampoco está demás que alguna vez se resalten en negrita o que aparezcan en los subtitulos.
5.- Transcripción del artículo y composición final.
Mi costumbre es escribir siempre los artículos a mano. Pero eso no tiene porqué ser así para todo el mundo. A mí me viene bien porque me concentro mejor y no me distraigo. Pero en todo caso, una vez escrito, si lo haces directamente en el editor de tu plataforma de blogging, necesitas añadirle las imágenes, los enlaces internos y externos (si los hay), vídeos, etc. Vamos, que necesitas “darle la forma final” al artículo.
Llegados a este punto se puede decir que ya hemos transformado la idea inicial en un artículo de nuestro blog. Pero antes de hacer click en el botón “publicar”, conviene releerlo un par de veces, pues siempre se nos puede colar un error gramatical o de ortografía. Estas cosas merman nuestra credibilidad como blogger, y no podemos permitir que este tipo de errores arruine nuestro trabajo.
Por eso el proceso mediante el cual una idea se transforma en un artículo del blog se hace siguiendo un método distinto al usado para un artículo impreso en papel. Según mi experiencia como blogger, hay cinco pasos para escribir un artículo destinado a ser publicado en internet:
1.- Las ideas aparecen donde menos te lo esperas.
Sea cual sea la temática del blog, un blogger ha de estar siempre recopilando ideas para nuevos artículos. Alguna noticia en prensa, una experiencia personal, un debate de tv, etc. De cualquier sitio puede salir la idea para un artículo.
Para mi blog sobre ayudas para buscar trabajo siempre estoy atento a cualquier cosa de la que pueda hablar en el blog. Y cada vez que aparece una posible idea, la anoto en el bloc de notas de mi teléfono móvil. De esa forma cuando quiero escribir un artículo siempre tengo un “banco de ideas” y no pierdo el tiempo buscándolas en ese momento.
2.- Antes de ponerte a escribir, investiga sobre el tema.
Salvo que se vaya a escribir sobre algo de lo que uno sea un auténtico experto, o se trate de una experiencia personal, lo usual es ampliar la información acerca del tema en cuestión. Obtener datos estadísticos, otros puntos de vista u otras opiniones al respecto va a enriquecer mucho tu trabajo.
Yo utilizo como fuente de información generalmente internet. Lo que hago es anotar en un papel las cosas que más me van llamando la atención o que creo que me sirven y luego las utilizo para escribir el artículo.
3.- Estudio SEO. Analiza las palabras clave principales.
¿Cuál es la temática del artículo?, ¿qué términos lo definen más exactamente?. Escribir un artículo para ser publicado en internet requiere que la redacción del mismo se adapte también a los buscadores. Y éstos, grosso modo, deducen la temática de un artículo en función de estas palabras clave, lo que les sirve para posicionar tu artículo de una u otra forma en los resultados de búsqueda para esos términos. Y esto supone que recibamos más o menos visitas procedentes de las búsquedas de los usuarios.
A mí me gusta utilizar la herramienta para palabras clave que tiene Google Adwords. Considero que es la mejor y más completa. Mi estrategia, dado que mi blog es aún muy modesto, es buscar palabras clave con un nivel de competencia medio o bajo. Así va a ser más fácil su posicionamiento entre los primeros puestos. Escribiendo muchos artículos y posicionandolos bien, consigo que la mayor parte del tráfico que llega a mi blog, proceda de los buscadores.
4.- La redacción del artículo. Un trabajo a dos bandas.
Todo blogger ha de tener en cuenta que debe escribir el artículo pensando en el lector y también en los motores de búsqueda. Por eso tiene que redactarlo de modo que tenga una perfecta comprensión por parte de quien lo lee, pero también insertando esas palabras clave estratégicamente para que los buscadores valoren y clasifiquen correctamente el artículo.
Según mi experiencia como blogger y mis conocimientos de técnicas SEO, lo que hago es poner esas palabras clave a lo largo de todo el texto. Y obligatoriamente en el título del artículo y el primer párrafo. Tampoco está demás que alguna vez se resalten en negrita o que aparezcan en los subtitulos.
5.- Transcripción del artículo y composición final.
Mi costumbre es escribir siempre los artículos a mano. Pero eso no tiene porqué ser así para todo el mundo. A mí me viene bien porque me concentro mejor y no me distraigo. Pero en todo caso, una vez escrito, si lo haces directamente en el editor de tu plataforma de blogging, necesitas añadirle las imágenes, los enlaces internos y externos (si los hay), vídeos, etc. Vamos, que necesitas “darle la forma final” al artículo.
Llegados a este punto se puede decir que ya hemos transformado la idea inicial en un artículo de nuestro blog. Pero antes de hacer click en el botón “publicar”, conviene releerlo un par de veces, pues siempre se nos puede colar un error gramatical o de ortografía. Estas cosas merman nuestra credibilidad como blogger, y no podemos permitir que este tipo de errores arruine nuestro trabajo.
Etiquetas:
Blogging,
Información
¿Cómo borrar el historial web de tu cuenta de Google?
En el historial web de tu cuenta de Google, se almacena toda la información relacionada con las búsquedas que has hecho en Google, los resultados que se han mostrado y las páginas que has visitado como, por ejemplo, la URL. El historial web se activa en forma automática, al crearte una cuenta de Google.
Google personaliza las búsquedas que realizas en las páginas de resultado, en función –entre otros sistemas- de tu historial web. El historial web se activa, ya sea que hayas o no iniciado sesión en Google. Por eso, existen dos formas de borrarlo. Aunque en esta ocasión, nos vamos a referir a la forma de eliminarlo (y evitar que se registre en el futuro) desde tu cuenta de Google.
Existen personas celosas de sus datos, incluyendo las búsquedas que efectúan en Internet o usuarios que no desean darle a Google más poder del que tiene, por eso este tip puede resultarles interesante. Para ello, debes iniciar sesión en tu cuenta de Google y realizar estos dos pasos:
- Accede a la página google.com/history.
- Haz clic en Eliminar todo el Historial web.
No obstante, el propio Google nos dice que: “…siguiendo la práctica habitual del sector y de acuerdo con los principios de la Política de privacidad de Google, Google mantiene un sistema de registro independiente destinado a tareas de auditaría y a la mejora de la calidad de los servicios que ofrece a los usuarios”.
Google personaliza las búsquedas que realizas en las páginas de resultado, en función –entre otros sistemas- de tu historial web. El historial web se activa, ya sea que hayas o no iniciado sesión en Google. Por eso, existen dos formas de borrarlo. Aunque en esta ocasión, nos vamos a referir a la forma de eliminarlo (y evitar que se registre en el futuro) desde tu cuenta de Google.
Existen personas celosas de sus datos, incluyendo las búsquedas que efectúan en Internet o usuarios que no desean darle a Google más poder del que tiene, por eso este tip puede resultarles interesante. Para ello, debes iniciar sesión en tu cuenta de Google y realizar estos dos pasos:
- Accede a la página google.com/history.
- Haz clic en Eliminar todo el Historial web.
No obstante, el propio Google nos dice que: “…siguiendo la práctica habitual del sector y de acuerdo con los principios de la Política de privacidad de Google, Google mantiene un sistema de registro independiente destinado a tareas de auditaría y a la mejora de la calidad de los servicios que ofrece a los usuarios”.
Etiquetas:
Blogging,
Información
23 nov 2012
Las 4 reglas de oro del community management en Facebook
Según un reciente estudio de Socialbakers, el 95% de las marcas con páginas en Facebook no responden a los mensajes de sus fans. Esto evidencia que las marcas siguen contemplando esta red social como un medio tradicional, donde la comunicación fluye en un solo sentido.
En la Web Social la comunicación es bidireccional. Para evitar estos errores a la hora de aproximarse al community management en Facebook, el portal Allfacebook.com recomienda seguir estas cuatro reglas básicas:
1. El contenido y el community management están al mismo nivel
Crear contenido excelente es importante, pero no lo es menos desplegar un community management de primera calidad, en una estrategia socialmedia marketing.
El contenido cuenta la historia de la marca, pero el community management muestra el corazón de la marca.
2. Todo mensaje merece una respuesta
Cuando el fan de la página de una marca en Facebook publica un comentario, la marca está siempre obligada a responderle.
Da igual que no se trate de una pregunta directa. Hay que contestar siempre, aunque sea con un simple “gracias”.
Si alguien se toma la molestia de ponerse en contacto con una marca a través de Facebook, la marca también debe tomarse la molestia de contestarle.
Lógicamente, hay excepciones a esta norma. Los mensajes spam, los de contenido obsceno y vulgar y los especialmente controvertidos por abordar temas como la política y la religión no deben ser respondidos.
Un buen community manager está obligado a reconocer estas excepciones.
3. Los community managers deben ser expertos en la marca a la que representan
Un buen community manager debe ser especialista de la marca a la que representa en Facebook y, como tal, debe entender el pasado, el presente y el futuro de la marca.
4. Hay que responder rápidamente
El fan que publica un comentario en la página de una marca en Facebook lo hace con la esperanza de recibir una respuesta casi instantánea. Para no defraudar sus expectativas, hay que ser lo más rápido posible. El medio así lo exige.
En la Web Social la comunicación es bidireccional. Para evitar estos errores a la hora de aproximarse al community management en Facebook, el portal Allfacebook.com recomienda seguir estas cuatro reglas básicas:
1. El contenido y el community management están al mismo nivel
Crear contenido excelente es importante, pero no lo es menos desplegar un community management de primera calidad, en una estrategia socialmedia marketing.
El contenido cuenta la historia de la marca, pero el community management muestra el corazón de la marca.
2. Todo mensaje merece una respuesta
Cuando el fan de la página de una marca en Facebook publica un comentario, la marca está siempre obligada a responderle.
Da igual que no se trate de una pregunta directa. Hay que contestar siempre, aunque sea con un simple “gracias”.
Si alguien se toma la molestia de ponerse en contacto con una marca a través de Facebook, la marca también debe tomarse la molestia de contestarle.
Lógicamente, hay excepciones a esta norma. Los mensajes spam, los de contenido obsceno y vulgar y los especialmente controvertidos por abordar temas como la política y la religión no deben ser respondidos.
Un buen community manager está obligado a reconocer estas excepciones.
3. Los community managers deben ser expertos en la marca a la que representan
Un buen community manager debe ser especialista de la marca a la que representa en Facebook y, como tal, debe entender el pasado, el presente y el futuro de la marca.
4. Hay que responder rápidamente
El fan que publica un comentario en la página de una marca en Facebook lo hace con la esperanza de recibir una respuesta casi instantánea. Para no defraudar sus expectativas, hay que ser lo más rápido posible. El medio así lo exige.
Etiquetas:
Blogging,
Información,
Seo y posicionamiento
Suscribirse a:
Entradas (Atom)
ARCHIVO DEL BLOG
-
▼
2013
(121)
-
▼
julio
(13)
- SEO low cost ¿de verdad vale la pena?
- 25 errores comunes cuando estás escribiendo un art...
- Que hacer si me encargan un articulo
- 7 consejos para el rediseño de un sitio web que no...
- El SEO sigue siendo una de las estrategias de mark...
- 3 puntos clave mejorar nuestro comercio electrónico
- 4 Factores que influyen en el aumento de las venta...
- Especial blogueros: como vivir de tu blog y no mor...
- Cuándo y por qué los vídeos de empresa se hacen vi...
- Qué es el email marketing y cómo hacer que tu camp...
- ¿Tienes un plan para tu vida?
- ¿Cuál es el objetivo de una página web?
- Lista de los 200 factores SEO de Google
-
▼
julio
(13)
-
►
2012
(189)
- ► septiembre (15)
-
►
2011
(294)
- ► septiembre (18)
-
►
2010
(360)
- ► septiembre (27)
-
►
2009
(228)
- ► septiembre (30)
-
►
2008
(114)
- ► septiembre (13)