Como ganar dinero con su blog, Servidores blog, Plantillas para bajar, Contadores de visitas, Adsense, Estadísticas y mucho más.
-
-

14 dic 2012

10 tendencias digitales y oportunidades de negocio para el 2013

La consultora de diseño de servicios empresariales Fjord acaba de publicar su “Informe de Tendencias digitales 2013″ donde predice las tendencias digitales para el próximo año y las orienta a las oportunidades de negocio que pueden suponer para las empresas.

“Se trata de una instantánea muy útil que nos permite entender de forma sencilla cómo los avances tecnológicos y la creciente saturación digital están perfilando la realidad digital de hoy en día tanto para las personas como para las empresas de nuestro entorno”, señala  Louisa Heinrich, directora de estrategia de Fjord.

 Las 10 tendencias digitales según Fjord

1. Los modelos de negocio P2P (peer to peer) seguirán creciendo no sólo en el ámbito personal y de las finanzas, sino también en la fabricación y distribución. Ya podemos ver plataformas online que comercializan productos artesanales. Las empresas tradicionales pueden aprovechar esta creciente tendencia para explorar vías de colaboración e integración de servicios “de igual a igual” en áreas relevantes para su negocio.

2. Empezar a demandar más a cambio de proporcionar datos personales. Esto potenciará la creación de herramientas que permita a los usuarios gestionar y controlar quién, cuándo y cómo puede ver sus datos.

3. Aumentará el número por persona de objetos inteligentes interconectados. Así se conformará un ecosistema personal en el que el todo tendrá más valor que la suma de las partes que compone la red. En 2013 saldrán dispositivos que nos hablan a nosotros y entre sí, facilitando el flujo de información, conocimiento y entretenimiento.

4. El volumen de datos e información para este nuevo año seguirá incrementando. Será fundamental seleccionar los más relevantes y priorizar las interfaces, así como buscar soluciones simples, directas y focalizadas.

5. La revolución del retail derribará las fronteras entre lo online y offline, proporcionando a los consumidores una experiencia de compra más personalizada, completa y satisfactoria. Este 2013, se introducirán nuevos métodos de pago que, junto con las posibilidades de las redes sociales, los dispositivos móviles, el geofencing, los códigos QR o los datos de ubicación y contexto, reconfiguran el concepto de irse de compras.

6. El poder acceder a los contenidos desde cualquier lugar y en cualquier momento está cambiando las reglas del juego. Esta portabilidad hace que se esté hablando de “acceder” más que de “poseer” los contenidos, gracias también a los servicios de suscripción y el streaming. No hablamos solo de música o audiovisual, la mentalidad del pago por uso se extenderá a otras áreas como el alquiler o el intercambio de ropa y coches. Las empresas deberán plantearse si sus productos y servicios son más de “acceder” que de “poseer”.

7. Aprender se vuelve personal: los materiales educativas evolucionan para adaptarse a cada alumno en tiempo real. La personalización de la educación se espera que dé el salto al mundo empresarial.

8. La voz será la protagonista de los nuevos servicios e interfaces. Los nuevo sistemas de reconocimiento e interpretación de voz llevarán al voiceprint como una nueva forma de “firma personal”.

9. El 2013 presenciará nuevos modelos de negocio ideados y concebidos únicamente para el entorno móvil.

10. Hasta los negocios más tradicionales están teniendo que adaptarse al entorno digital, por lo que las empresas deberán promover la innovación y equipos multidisciplinares con nativos digitales. Hay que pensar como una startup.

SEO y Performance: El rebote y el posicionamiento web

A raíz de la reedición de uno de mis posts, concretamente el relacionado con la manipulación del rebote en Google Analytics, he recibido varios comentarios (personales, email, blog,...) hablándome del efecto del rebote en el posicionamiento web. Todos ellos fruto de una clara confusión al usar la misma palabra "rebote" para referirnos a un comportamiento similar pero técnicamente a procesos claramente diferenciados.

Hace unos 2 años empezó a hablarse de como podía estar evaluando Google la calidad de los resultados que ofrecía a los usuarios. Uno de los criterios que empezó a tomar fuerza hasta que a día de hoy está casi asumido por todos como un criterio usado por el buscador es el Rebote de las páginas web que se genera en sus resultados. Supuestamente este rebote estaría afectando negativamente al posicionamiento en el buscador.

Qué es el rebote

El problema principal es que la definición de rebote es técnicamente ambigua. Un Rebote es un usuario que entra en un site en el que no desea entrar y por lo tanto sale rapidamente de este. La alegoría esta clara, el usuario no entra en nuestra web sino que al entrar rebota de nuevo hacia fuera. Si bien lo que debe significar esta claro, llegados al punto de cómo medirlo técnicamente no existe una norma a seguir y cada herramienta lo mide como puede o simplemente como le da la gana.

Así pues, algunas herramientas toman solo una página vista, otras unos segundos, otras como omniture no lo traen como métrica por defecto y otras como seevolution evitan hablar del rebote indicando métricas nuevas (rebotados/no-rebotados por distintos criterios) con otros nombres (en ese caso Junk/Interested/Engaged en función de paso de 5 segundos en el site para "Interested" y alguna acción de click o scroll para "Engaged"). Realmente no puede haber un consenso porque no hay una solución buena.

En Google Analytics vimos que el rebote es manipulable y por lo tanto aun siendo una única métrica esta es distinta en cada caso.

Cómo mide el rebote Google Search

Llegados al terreno del SEO debemos tener clara una cosa: Google Search no tiene acceso a nuestra web. Hay unos cuantos (no pocos) amantes de las teorias de la conspiración que nos hablan de que si instalamos Google Analytics en nuestras webs Google tiene acceso a todas nuestras métricas internas pero esto tiene poco sentido.

Por un lado, si esto fuese cierto, las webs con Google Analytics diferirían en posicionamiento de las que no lo usan. Por otro lado, esta claro que esta sería una acción totalmente ilegal por la que Google podría llevarse un buen palo. A estas alturas es muy pero que muy poco probable que Google incumpliese de forma tan obvia las leyes de protección de datos solo para alimentar su algoritmo. Por último, la cantidad de datos que maneja Google Analytics y la forma en la que estos están organizados hacen que el proceso que debería tener Google Search por detrás para valorar las páginas por su analítica web interna fuese realmetne descomunal. No, decididamente es un muy poco probable que Google Search se apoye lo más minimo en los datos de Google Analytics para nada. De hecho es poco probable que en Google se permita acceder a estos datos para ningún motivo.

Así pues, si Google no puede acceder a nuestras herramientas de analítica web ¿Cómo mide el comportamiento de los usuarios en ellas? Pues sencillo. Lo hace con lo que puede, y ¿con qué puede?. Pues con la experiencia de los usuarios en el propio buscador, algo que en realidad le es más que suficiente para valorar este rebote, pues la inmensa mayoría de usuarios que buscan algo vuelven una y otra vez al mismo buscador.

Para Google Search un rebote es una persona que clicka en un resultado del buscador (sí, Google mide todos los clicks que hacemos en el buscador) y en pocos segundos vuelve a la misma búsqueda. Si lo pensamos, este es el comportamiento de rebote de muchos usuarios no avanzados:

- Buscan >> Escogen un resultado >> NO les gusta >> y o vuelven atrás o vuelven a buscar lo mismo.

Eso es lo que Google Search mide como rebote.

Las pruebas de que Google Search mide el rebote

Aparte de las tipicas pruebas (siempre poco fiables, es es muy dificil conseguir la relación causa-efecto exacta) que parecían demostrar que al mejorar el rebote de una página esta mejoraba su posicionamiento ligeramente la verdadera prueba de que Google si que disponía de esa información llegó con el programa de bloqueo de sitios.

Este programa comenzó con una simple extensión para chrome que permitía a los usaurios eliminar algunos resultados que no les gustasen del buscador. Este añadido pronto se completó de forma nativa en el buscador.

Gracias a este programa pudimos comprobar como ante un rebote como el mencionado (buscar, clicar y volver a buscar lo mismo) Google pasaba a ofrecer un link bajo el resultado que te permitía eliminar ese resultado (pues entendía que era muy probable que no te hubiese gustado).

Esta estrategia se lanzó para detectar páginas Spam y conseguir que los usaurios consiguiesen ayudar a Google a detectar esas páginas. Yo creo que en ese sentido no consiguieron que los usuarios usasen demasiado la herramienta, pero en SEO nos demostró dos cosas:

1. Que Google estaba interesado en la experiencia del usuario con las páginas visitadas como factor de posicionamiento.

2. Que Google Search es muy capaz de detectar el rebote de la forma mencionada.

Así que el SEO basado en comportamientos (SEO performance) a día de hoy tiene sentido.
Google usa el Rebote como un factor de posicionamiento

Por desgracia no existen pruebas de esto. Pero es bastante evidente para muchos que así es. Tiene lógica, puede hacerse y vemos que ya se han movido en este sentido. Si no se hace se terminará haciendo.

El problema es que como decía antes es algo muy difícil de medir. Cuando mejoramos el rebote en nuestras páginas no solo afectamos a Google sino al usuario y por lo tanto no solo vamos a mejorar en rebote sino probablemente en links, tweets y menciones de todo tipo.

Por otro lado las propias acciones que hagamos para mejorar el rebote también van a afectar al posicionamiento de nuestras páginas por lo que no sabemos que parte proviene de la mejora del rebote y que parte por los cambios onPage.

Qué debemos hacer para mejorar nuestro rebote en Google Serach

Lo primero olvidarnos de nuestra herramienta de analítca para este efecto. Podremos manipular el rebote en Google Analytics (y de hecho es aconsejable al menos plantearselo) pero no va a haber relación entre la tasa de rebote de Analytics y la que preciba Google. Decididamente: No hay relación entre una cosa y la otra.

Esto también nos lleva a que no debemos tener en cuenta la tasa de rebote desde otros canales de marketing. Por ejemplo: que lancemos campañas de emailing con un alto porcentaje de rebote no va a afectarnos en SEO, pues Google Search no es consciente de ese rebote. Así que miremos el Rebote en cada canal por lo que es y como nos afecta.

Luego nuestro interés debe ser el de conseguir que el usuario consiga uno de estos dos hitos:

- Permanezca un mínimo de segundos antes de marcharse.

- O haga clic en alguna de nuestras páginas y así evitemos el fatal botón volver atrás.

Estas son ya las estrategias típicas que suelen seguirse en estrategias de anulación del rebote en el site. Entran dentro del marketing performance o del actualmente llamado CRO (Conversión Rate Optimization) por lo que realmente muchos cambios de una estrategia a otra no hay. Lo mismo que nos ayudará a mejorar objetivos con los usuarios en la web, nos ayudará en este SEO Performance.
  • Identificación del mensaje en un primer vistazo
  • Diseño atractivo, claro y actual
  • Especial atención al diseño sin scroll
  • Coherencia entre keyword y contenido
  • Evitar la publicidad invasiva
  • Mejora de la velocidad de carga de página
  • Navegación lógica y relacionada con el tema de la landing
  • Llamadas a la acción
  • Diferenciación de otras páginas similares
  • Valores añadidos
  • Etc.
Como decíamos antes, estos cambios también afectarán al SEO OnPage así que... bienvenidos al mundo de la incertidumbre.

Otras técnicas más "piratillas" pasan por conseguir esto mismo pero sin que el usuario realmetne esté más satisfecho con la web: básicamente obligandole a navegar para llegar al contenido o ténicamente consiguiendo que el botón hacia atrás deje de funcionarle. No comento mucho más sobre esto porque no creo que a nadie le convenga jugar con fuego a estos niveles... (la frustración del usuario no puede ser una herramienta valida para nada)

En conclusión

Todo lo que es marketing performance (lo orientemos a ratios de conversión o no) es interesante de cara a mejorar los resultados de nuestra web. Quizás una llamada de atención sobre este aspecto venida desde el SEO no nos venga mal... Ya lo hemos visto antes: en desarrollo llevamos tiempo viendo como la calidad de las webs mejora gracias a las necesidades SEO y no a la mejora de la web en si: maquetación, estructura, marcado semántico, WPO, etc.

Que vuelva a pasar no creo que sea malo, sino más bien al contrario. Lo que veo un problema es desarrollar complejos proyectos de mejora del rebote para SEO y esperar un retorno en visitas o posiciones con ello. No podremos medirlo, no podemos saberlo y en todo caso sabemos que no es un criterio fundamental, solo uno más. Yo animo a todo el mundo a mejorar sus tasas de rebote, pero sin perder el norte y pensando en el usuario y en el negocio no en el maldito algoritmo.

10 dic 2012

Historia reciente de Google Search y su dudosa estrategia de calidad de resultados

Hace tiempo que tenía ganas de escribir esta entrada, pero siempre surge algo, sino es una nueva novedad es simplemente trabajo. Hoy, vengo con el cabreo de fondo que me trae una novedad que comentaba Pedro Serrano (twitter, linkedin ) que le había venído de Raven Tools donde por presiones de Google dejarán de rastrear las posiciones en las búsquedas que ocupan las webs.

Esto se suma a una serie de acciones, que vienen realizándose desde algo más de 2 años y que se disfrazan como a favor del usuario aunque como fondo siempre tienen un punto en comun: dificultar la labor SEO. Y digo esto porque muchas veces no encontramos ningún motivo lógico para los cambios salvo este, lo cual es como mínimo frustrante.

No me entendáis mal, no estoy a favor de que se permita realizar Spam en las webs ni de que una marca pueda ver sus visitas usurpadas por un SEO Spamer o directamente Black Hat. Cuando Google ha realizado cambios en pro de los resultados ofrecidos por su buscador no me ha importado demasiado. Cuando se lanzó Google Caffeine, en Enero de 2010 a todos nos pareció perfecto: se cambiaba la infraestructura de indexación de Google y eso le daba nuevas posibilidades; tanto para encontrar nuevos contenidos que antes no llegaban a ser indexados como para realizar cambios futuros como Google Instant que nos llegó solo unos meses después.

En ambos casos se afectó negativamente a ciertas estrategias SEO: Caffeine fue en contra de las webs pequeñas de marca que ahora veían como muchos nuevos contenidos pasaban a competir contra ellos. Lo peor de todo fue que eso inundó aún más los resultados de búsqueda de contenidos de baja calidad de foros secundarios, blogs cutres y webs hechas con dreamweaver. Pero se entendía el movimiento: el rastreo era sin duda mejor y pasábamos a tener muchos más millones de resultados donde escoger. Con Google Instant aquellos que se posicionaban a partir del resultado 11 (segunda página o búsquedas de 100 en 100) vieron como sus visitas descendían pues al usuario le resultó ya más fácil filtrar la búsqueda con los resultados sugeridos que ir pasando de página. Pero esto era lógico: Google empezaba a tener serias críticas sobre lo poco que se estaba modernizando: los usuarios empezaban a mirar hacia otros buscadores estéticamente más modernos y con ciertas novedades. Instant colocó a Google de nuevo en la cumbre al ofrecer una experiencia de búsqueda realmente rápida. Sin embargo al poco empezamos a ver que no solo se trataba de eso: Instant trajo una mayor presencia de la primera página y de la cabecera del buscador lo que sin duda benefició a Adwords que a partir de ahí y poco a poco ha ido ocupando cada vez más espacio en la cabecera de una búsqueda y en la página de búsqueda en general. Todos recordamos el gran cambio que se produjo cuando AdWords en la columna central pasó a ocupar 3 resultados en todas las búsquedas principales y lo que supuso de caída en clicks a los TOP1.

Como decía, estos cambios podían ser discutidos pero siempre tenían una orientación hacia el usuario que los hacían parecer resultados colaterales y no objetivos en si mismo. El problema empezó con 2011 donde el giro de estrategia del programa de calidad de resultados de Google se transformó en un ataque frontal hacia todo lo que oliese a SEO. Ahí vimos nacer al primer animalito del Zoologico de Google: un monísimo Google Panda que en teoría perseguía a los resultados de contenido de baja calidad. A España no nos llegó hasta agosto de ese año, pero los grandes cambios casi arbitrarios de posiciones que observábamos en USA nos tuvieron temblando todo el año. No nos engañemos, Panda puede haber limpiado de mucha porquería los resultados pero lo ha hecho mal: ha atacado a webs con contenido único y ha dejado a otras webs claramente replicadoras de contenidos impunes y esto es porque el realidad (al menos para mi) no se trata de un algoritmo que ataque al contenido de baja calidad, sino que ataca al SEO técnico: un SEO desarrollado por desarrolladores/programadores y no por generadores de contenidos y que por lo tanto provoca repeticiones de patrones en las webs: mismos esquemas de contenido, mismas estructuras web, misma cadencia en aparición de nuevas páginas, mismos modelos html, etc. Los premiados con ello han sido las webs caóticas de contenidos y las comunidades descontroladas, que con contenidos mediocres sacaron un gran partido a Panda. Panda también impulsó al SEO de contenidos al estrellato. Un tipo de SEO que por lo general era secundario pues la mayoría de Seniors venían de luchar mucho en el lado técnico y que vio como todo el mundo demandaba de golpe estrategias de contenido SEO. No me parece mal, pero creo que nos ha llevado a un panorama SEO donde hay mucho especialista que no tiene ningún control sobre la parte técnica y que en consecuencia no puede saber muy bien lo que hace. El SEO de Contenidos 100% es lo que le gusta a Google: generar información, generar material para que la gente use el buscador para encontrarlo. Pero este esfuerzo, sin una base técnica se transforma en una simple estrategia de saturar nuestro site con oportunidades para posicionarse (alias nuevas páginas) y por lo tanto, lo quieras o no, termina generando nuevas visitas. El problema de este SEO suele ser que a lo bruto no es rentable (los contenidos cuestan más de lo que aportan) y que sin una estrategia de marketing/conversión en la que apoyarlos estas todas las nuevas visitas no aportan negocio. Pero este es el mundo que se ha creado con Panda: un buscador que penaliza con una calidad dudosa y que por tanto ha generado búsquedas que para nada ayudan al usuario. Realmente los resultados de una búsqueda eran de mucha mayor calidad antes de Panda, solo tienes que haberlo seguido un poco para verlo.

Tras panda nos hemos encontrado, solo un par de meses después de observarlo en nuestro pais, con el famoso (not provided). Aquí nos lo disfrazaron como una mejora de seguridad para los usuarios cuando todos sabíamos lo que se buscaba de fondo. Ya no teníamos duda de las intenciones de Google, no le bastó con ir a atacar estrategias solo por ellas mismas sino que se comenzó con una estrategia que poco a poco nos iba a eliminar cada vez más información sobre que Keywords se usan para acceder a nuestro site. Un mazazo para la analítica del SEO que se hizo muy bien: comenzamos con un porcentaje afectado que en raros casos pasaba del 5% (y por lo tanto no nos afectaba tanto) para llegar actualmente a perder visibilidad en muchas web sobre aproximadamente la mitad del tráfico que nos trae el buscador. Para quien lo dude: si, un 50% de tráfico desconocido anula cualquier análisis que podamos hacer. ¿Ha mejorado esto la seguridad del usuario? En absoluto: las cookies abusivas y las infracciones del la LOPD ahí siguen sin problemas, lo único que se ha hecho ha sido privar a las webs de herramientas para decidir como acercarse más hacia sus usuarios/clientes potenciales. Habrá quien defienda que se putee a la empresa y su análisis del mercado, pero bien que cuando busquen ahora regalos por navidad les gustará poder encontrar quien vende lo que quieren.

Siguiendo con ataques directos cada vez más evidentes, llegamos al segundo animalito del zoológico de Google: Google Penguin, lanzado a principios de 2012. Aquí ya no se escondieron, lo explicaron como siempre de forma poco comprensible pero el objetivo estaba claro: ir a por la sobreoptimización. Si Panda buscaba patrones técnicos Penguin los buscaba ya directamente en la optimización hacia una keyword. Ahora las optimizaciones son malas, pero ¿cuando? Cuando son demasiado forzadas como para ser naturales. El problema de todo esto es que es Google quien juzga que es natural y que no. Google Penguin es una gran jugada pues parte del miedo que aun suscita Panda para obligar a todo el mundo a desoptimizar sus webs, pero veamos lo ilógico que resulta esto ¿Necesito un SEO para que desoptimize mi site? ¿Para eso no hubiese bastado con que no hubiese hecho SEO? Esa es la conclusión básica que se busca: el seo no sirve! Haz las cosas bien: preocúpate por tu usuario y por una calidad de tu web indiscutible y los resultados llegarán solos. Eso, sientiéndolo mucho debemos decir que es mentira, tu no te preocupes por el SEO y alguien ya se ocupará de robarte tu trozo del pastel en el Buscador. Siempre podrás recuperarlo a base de pagar Adwords y hacer aún más felíz a Google pero ya entramos en terrenos de campañas pagadas. La realidad es que Penguin solo ha atacado a aquellas estrategias que llevamos años viendo como peligrosas: Sobreoptimizar las webs. El post que acabo de poner fue escrito en Noviembre de 2009 y viene a decir lo mismo que Penguin: No te pases optimizando, se un poco listo y actúa emulando lo que hace internet por si solo. Pero claro, no era igual de cara una campaña de links despreocupados para potenciar una keyword que una estrategia más comedida y que buscase la naturalidad y por eso muchos se han visto afectados por Penguin. Esa gente tiene un problema pues tiene que naturalizar su optimización para sacarle partido. Pero solo esta gente, para el resto todo sigue igual y eso de dejar de optimizar si lo pensamos un poco no tiene sentido.

¿Qué está consiguiendo Penguin para el usaurio? ¿Menos Spam? ¿Realmente las webs que te encontrabas de Spam al buscar han desaparecido? Te ahorro las respuestas: no ha conseguido nada. Solo entorpecer las estrategias SEO de aquellas empresas que los hacían con recursos. A estas empresas hay que ponérselo difícil por un simple principio: Si tienen dinero para generar tantos links lo tienen para pagar Adwords.

A día de hoy nos llegan dos grandes cambios. La primera por fin vuelve a tener que ver con el usuario y es knowledge graph, que para búsquedas de items muy identificados transforma el buscador en una respuesta directa al usuario. Esto tiene sentido: evitan visitas tontas a la wikipedia, mejoran la exposición del contenido del que disponen en Google+ y el usuario al final es más feliz al leer directamente en Google lo que buscan. Por otro lado knowledge graph pasa los resultados de Google a un segundo o tercer plano dejándolos como algo anecdótico de la búsqueda y no como el resultado real. Esto va a hacer daño en productos integrados, pero por otro lado representa una gran oportunidad para los propietarios de esos Items que podrán posicionar su información oficial expuesta en el propio buscador, solo hay que aprender a hacerlo y hacerlo bien. Así que básicamente devuelve el poder de una búsqueda a su legítimo dueño. E¿l truco? Pues que para eso habrá que nutrir de información las herramientas de Google: Local, Google+, etc. Es una estrategia parecida a la que ya se hacía con Universal Search: incluir resultados de productos de Google (mapas, vídeos, imágenes) en el resultado de búsqueda para promocionarlo y de paso obligar a que se usen más las opciones para aportar contenido a estos servicios. Solo que se da un paso más y se cambia totalmente el comportamiento principal del buscador para algunas búsquedas. Esto tiene serias repercusiones para algunas búsquedas pero como decía antes, como favorece al usuario no es tan frustrante como los ya citados.

Otro de los cambios (esta vez más oculto al público) es el ataque directo a las herramientas de medición de rankings que era con el que comenzaba este post. Parece que Google está empezando contactar con herramientas de medición de keywords en base al uso de sus APIs. Básicamente si una empresa desea ofrecer este producto de medición de posiciones no podrá usar otras apis como las de Adwords (y hay que imaginar que también como las de analytics, maps, google+, etc.). Así Raven SEO Tools explica los motivos que le llevan a dejar de medir posiciones con su herramienta a partir del 2 de Enero. Este movimiento ya no tiene ninguna otra explicación que fastidiar el análisis SEO.

Conclusión

A Google no le gusta que sepamos que pasa con nuestras webs en sus resultados y en base a eso está actuando con todo lo que puede. Aquí he comentado solo los cambios más evidentes, pero sin duda hay más detalles que comentar como los nuevos buscadores verticales que están probando, los movimientos continuos de posiciones, la personalización de resultados llevada a niveles brutales, etc. Todo esto hace que cada vez funcionemos más por estadística y menos con datos reales. Añadimos a todo esto los cambios en Adwords (que darían para otro post entero) que poco a poco van siendo cada vez más presentes y más obligados y donde empezamos a ver productos de Google Shopping directamente promocionados de formas muy notorias. Yo creo que al final todo lo hecho en SEO no es más que otro de los pasos para optimizar Adwords: a mayor dificultad en SEO para las grandes empresas, mayor inversión terminarán recibiendo en adwords.

¿Cómo y Cuándo compartir o publicar contenidos en Facebook?

Seguro que más de una vez te has preguntado qué tienes que hacer en Facebook para que tus acciones tengan una mayor repercusión. Para que te hagas una idea, aquí tienes las conclusiones de un estudio llevado a cabo durante un periodo de 28 días, analizando la actividad de las fanpages de importantes empresas alemanas.

Primera regla de oro: No satures al destinatario con tu contenido

Existe una relación inversamente proporcional entre la frecuencia de las actualizaciones y la viralidad que éstas obtienen. Concretamente este estudio indica que las empresas que publicaron cada 3 días, obtuvieron un mayor porcentaje de repercusión, concretamente del 0,54%, frente al 0,1% de aquellas que publicaron varias veces al día, llegando a realizar más de 50 actualizaciones. Además, la saturación es el principal motivo que lleva a los fans a dejar de seguir a una marca.

¿Cuándo publicar?

Lo ideal para alcanzar a la audiencia en Facebook es aprovechar las horas de asueto, que suelen ser la hora del almuerzo y después del trabajo. Es durante ese periodo cuando los fans están especialmente activos en redes sociales, así como receptivos a las ofertas y a interactuar con el contenido, siempre que éste sea de su interés. Por esta razón los domingos se han constituido como el Día del Fan; es cuando se ha experimentado, con diferencia, una mayor notoriedad de las actualizaciones en esta red social, favorecido asimismo por una menor actividad por parte de las empresas, lo que supone menos competencia y más visibilidad.

Lo bueno, si es breve... Los usuarios aceptan una extensión máxima de 3 líneas de texto, a partir de ahí, desciende notablemente su interés. Utiliza mensajes directos, con un lenguaje claro y sencillo, que incite a la acción. Los ingredientes básicos de la viralidad son la sencillez (92%), la precisión (56%) y el componente emocional (64%), añádelos a tu receta de marketing de contenidos.

EL poder de una imagen

En Social Media, el contenido con imágenes genera un mayor impacto y atención.  Además, las imágenes cuentan con un alto componente de viralidad en Facebook, especialmente si éstas están agrupadas en álbumes, lo que puede suponer un 73% más de viralidad. Sin embargo, los vídeos no gozan de la misma aceptación en esta plataforma social (-85%) dado que requieren de una atención prolongada por parte del usuario, así como de una conexión online de alta calidad. Por tanto, recurre a ellos únicamente cuando el contenido merezca la pena.

Por su parte, se ha experimentado un auge cada vez mayor de las encuestas, alcanzando un 139% más de viralidad. Nos encontramos en un medio eminentemente participativo, donde los usuarios están deseando interactuar, aportar sus sugerencias y comentarios, si la ocasión lo merece. Aprovecha esta predisposición por parte de tus fans para averiguar su percepción de la empresa, o qué opinan sobre tu nuevo producto, anímales a compartir sus experiencias con la marca; incentívales con regalos y promociones y no podrán resistirse.


7 maneras de aportar valor a tus seguidores (Twitter)

Twitter es, sin dudas, una gran herramienta de alcance social y profesional. Se puede utilizar para construir su reputación, para establecerse como experto, para desarrollar una red de contactos o para hacer crecer su negocio. También se usa para conocer nuevos amigos o para encontrar personas con intereses similares. Independientemente del uso que le demos, existen algunas formas de sacar el máximo provecho de ella, y es dándole valor agregado a nuestros seguidores. Las 7 maneras para aportar valor a sus seguidores son las siguientes:
  1. Publicar información sobre eventos profesionales o sociales que sean de interés de sus followers.
  2. Presentar a sus seguidores si usted considera que ellos pueden beneficiarse entre sí.
  3. Responder las dudas o consultas que las personas realizan en Twitter.
  4. Compartir artículos de calidad, que puedan ser útiles para las personas de su industria o para los que tienen los mismos intereses o aficiones.
  5. Recomendar recursos que parezcan interesantes y educativos, como libros, blogs, productos, sitios para ir a tomar algo, películas, documentales, etc. El abanico de posibilidades es enorme en este punto.
  6. Proporcionar una visión única u observaciones que puedan ser útiles para otras personas.
  7. Pasar la voz sobre oportunidades frescas o interesantes (por ejemplo, concursos, regalos, cupones, ofertas, etc.)

4 dic 2012

WPO y SEO para WordPress

En el reciente congreso realizado por Punt multimedia en Barcelona, Javier Casares participó con 2 conferencias realmente interesantes, basadas en su experiencia en el uso profesional de WordPress.

En concreto, las conferencias versaron sobre SEO en WordPress, donde destiló muchos consejos básicos – pero imprescindibles – a la hora de configurar adecuadamente WordPress para el posicionamiento en buscadores, y por otra parte otra sobre WPO con WordPress, en la que propuso la que, a su juicio, sería la configuración ideal de WordPress para un rendimiento óptimo para una web de alto tráfico.

Es esta última la, en este caso a mi entender, más interesante, por ser un tema menos tratado habitualmente, y en la que propone un tandem ideal:
  1. WordPress limpio
  2. Configuración de mínimos
  3. Redistribución de cargas por servidores
  4. Varnish y WordPress
Creo que es una propuesta más que acertada, aunque lógicamente limitada a sitios web con grandes necesidades y recursos, no disponible para el común de los mortales.

No obstante, también hay estupendos consejos de optimización de WordPress así que es un documento imprescindible.


Aquí tienes las susodichas, que debemos agradecer a Javier:

pdf WordPress SEO (por Javier Casares) v.1.0 (534.38 kB ) pdf WordPress WPO (por Javier Casares) v.1.0 (519.88 kB )
 
Como plus este otro documento de referencia sobre Web Performance Optimization, también de Javier, realmente interesante:

pdf Web Performance Optimization (por Javier Casares) v.1.0 (949.49 kB )

Los emprendedores y su negación a las críticas

El mantra de los emprendedores buena onda y que hacen todo porque quiere cambiar al mundo esta acompañado por dos mitos bastante estúpidos; la idea de que los ganadores no abandonan que es simplemente ridícula y la idea de que las críticas son destructivas porque “no nos entienden”, pero tal vez estos dos factores de riesgo para un startup están mucho más relacionados de lo que parece.

    “No vamos en web-first porque la gente usa la web más que el móvil. Puedo utilizar mi teléfono más que otra cosa. Sólo que no creo que un emprendedor que quiere una oportunidad real de éxito debe comenzar su negocio en ese lugar. La plataforma Android y iOS nos llevó a fracasar al atraernos con el barniz de los usuarios, pero en realidad vas a pelear más duro por ellos de lo que vale la pena para tu negocio. Por supuesto que necesitamos una aplicación móvil para atender a sus clientes y competir, pero sólo debe ser parte de su estrategia y no la cosa entera.” Why We’re Pivoting from Mobile-first to Web-first

Emprendedor en etapa de negación

Respeto y mucho a Vibhu Norby pero esta frase es un compendio de explicaciones para decir que “la culpa del fracaso es de otros” en realidad “fue de la plataforma móvil” y que “los usuarios no pagan” y que “Google hace mucha plata con Android” cuando la realidad es mucho, pero mucho, más simple: ¿y si el producto simplemente no funcionaba?

¿Y si simplemente el modelo basado en publicidad no servía para cubrir los costos de adquisición de usuario o si la aplicación no llamaba la atención de anunciantes, patrocinadores o potenciales compradores?

Cuando uno generaliza diciendo que “mobile first” es una estrategia errada para todos… está mostrando que no sabe definir puntos específicos de error y que, como líder de un startup, no está pivoteando (palabra de moda para decir “cambiemos o morimos”) sino que lo hace o se funde.
Emprendedores que no abandonan

Pero si sos emprendedor y tomás este mantra y lo internalizás, vas a cometer el peor pecado del emprendedor que es no escuchar a nadie. Las críticas son feas y siempre lo digo, suenan como si te insultaran por todo el trabajo que pusiste.

Pero las críticas son necesarias y de todo podés sacar algo bueno, aunque sea simplemente un reality-check que te ayude a corregir el rumbo antes de decir que las apps móviles no sirven sino como parte de una estrategia porque eso es decir que el universo de las Apps está errado.

Abran los oídos y en vez de correr a los blogs/medios/analistas que te palmean la espalda, escuchen a todos y traten de formar su propia opinión antes de quedar como emprendedores en estado de negación ;)

Shareaholic, una extensión de Google Chrome para compartir enlaces interesantes

Empezamos el último mes del año, contándote sobre una extensión para el navegador de Google que te permite compartir de manera fácil y sencilla todo lo que desees en las diferentes redes y plataformas sociales. Se trata de Shareaholic, y es una excelente manera de compartir el mejor contenido de la web con todos nuestros amigos y conocidos. De esta forma, podrás convertirte en un excelente propagador de buen contenido en la web, aunque suene gracioso. Muchos perfiles de las redes sociales son valorados por sus contactos, justamente por la calidad de la información que comparten. Y esta extensión podría ayudarnos en esa tarea, haciéndolo todo más simple, y con cero complicaciones.

Shareaholic es simple de usar y muy personalizable. Una vez que hayas instalado la extensión, podrás crearte una cuenta gratuita para realizar un seguimiento de todos los enlaces que hayas compartido y seguir a otros usuarios de la extensión, para ver justamente qué es lo que están compartiendo.

Luego, deberás configurar los servicios en los que deseas utilizar la extensión. La primera vez que vayas a utilizarlos, se te pedirá que inicies sesión y vincules la cuenta con esa red. Esto podría llevarte un buen rato, si deseas compartir enlaces en muchos sitios a la vez. También puedes optar entre una larga lista de acortadores de URL. Hecho todo esto, podrás comenzar a compartir los contenidos que desees, incluso seleccionado en qué servicio social deseas publicarlos.

Valoración: Una manera muy sencilla para compartir todos aquellos contenidos relevantes, como ser buena información, posts, notas, videos, historietas, artículos de humor, etc. Ideal para quienes se pasan horas y horas navegando en la web.

28 nov 2012

La opinión de los trabajadores de Google influye en los resultados de búsqueda

¿No existe un algoritmo por medio del cual se ordenan los resultados de búsqueda de Google? Si existe, no debe cundir el pánico en cuanto a todo lo que sabemos hasta ahora de técnicas SEO, pero lo que acabamos de saber es que además de él, trabajadores de Google también filtran y puntúan los resultados de búsqueda manualmente.

Son los trabajadores de los que nunca se ha oido hablar, seres “invisibles” que con sus puntuaciones también influyen en la posición de los resultados que ofrece el buscador. Ahora los conocemos gracias a un manual interno de 160 páginas dedicado a los “raters” (en inglés, algo así como los “puntuadores”), al que ha tenido acceso la web The Register.

Ellos serían los encargados de juzgar la calidad y la relevancia de las páginas que aparecen en el motor de búsqueda, y según el manual, deben hacerlo de acuerdo a su relevancia, nivel de spam y calidad.

Así las cosas, aunque Google quiera hacernos creer que todo depende de un algoritmo controlado por un “super-ordenador” sin mediación humana, lo cierto es que en las búsquedas sí que influye el criterio de estos trabajadores que, por cierto, trabajan desde casa valorando la calidad de las webs.

Según el manual, los “raters” tienen que dar a las webs una clasificación, que puede variar entre vital, útil, relevante, poco relevante, fuera de lugar e inclasificable. En cuanto a los niveles de spam, se clasifica como sin spam, posible spam, spam, pornográfica o maliciosa.

Cómo Escribir Un Artículo

La razón de ser del blogger es compartir información. Para ello se vale del blog, que es un canal de comunicación a través del cual el blogger comparte sus conocimientos, experiencias, relatos o noticias. Pero escribir un artículo para ser publicado en internet tiene ciertas particularidades con las que todo blogger ha de contar.

Por eso el proceso mediante el cual una idea se transforma en un artículo del blog se hace siguiendo un método distinto al usado para un artículo impreso en papel. Según mi experiencia como blogger, hay cinco pasos para escribir un artículo destinado a ser publicado en internet:

1.- Las ideas aparecen donde menos te lo esperas.

Sea cual sea la temática del blog, un blogger ha de estar siempre recopilando ideas para nuevos artículos. Alguna noticia en prensa, una experiencia personal, un debate de tv, etc. De cualquier sitio puede salir la idea para un artículo.

Para mi blog sobre ayudas para buscar trabajo siempre estoy atento a cualquier cosa de la que pueda hablar en el blog. Y cada vez que aparece una posible idea, la anoto en el bloc de notas de mi teléfono móvil. De esa forma cuando quiero escribir un artículo siempre tengo un “banco de ideas” y no pierdo el tiempo buscándolas en ese momento.

2.- Antes de ponerte a escribir, investiga sobre el tema.

Salvo que se vaya a escribir sobre algo de lo que uno sea un auténtico experto, o se trate de una experiencia personal, lo usual es ampliar la información acerca del tema en cuestión. Obtener datos estadísticos, otros puntos de vista u otras opiniones al respecto va a enriquecer mucho tu trabajo.

Yo utilizo como fuente de información generalmente internet. Lo que hago es anotar en un papel las  cosas que más me van llamando la atención o que creo que me sirven y luego las utilizo para escribir el artículo.

3.- Estudio SEO. Analiza las palabras clave principales.

¿Cuál es la temática del artículo?, ¿qué términos lo definen más exactamente?. Escribir un artículo para ser publicado en internet requiere que la redacción del mismo se adapte también a los buscadores. Y éstos, grosso modo, deducen la temática de un artículo en función de estas palabras clave, lo que les sirve para posicionar tu artículo de una u otra forma en los resultados de búsqueda para esos términos. Y esto supone que recibamos más o menos visitas procedentes de las búsquedas de los usuarios.

A mí me gusta utilizar la herramienta para palabras clave que tiene Google Adwords. Considero que es la mejor y más completa. Mi estrategia, dado que mi blog es aún muy modesto, es buscar palabras clave con un nivel de competencia medio o bajo. Así va a ser más fácil su posicionamiento entre los primeros puestos. Escribiendo muchos artículos y posicionandolos bien, consigo que la mayor parte del tráfico que llega a mi blog, proceda de los buscadores.

4.- La redacción del artículo. Un trabajo a dos bandas.

Todo blogger ha de tener en cuenta que debe escribir el artículo pensando en el lector y también en los motores de búsqueda. Por eso tiene que redactarlo de modo que tenga una perfecta comprensión por parte de quien lo lee, pero también insertando esas palabras clave estratégicamente para que los buscadores valoren y clasifiquen correctamente el artículo.

Según mi experiencia como blogger y mis conocimientos de técnicas SEO, lo que hago es poner esas palabras clave a lo largo de todo el texto. Y obligatoriamente en el título del artículo y el primer párrafo. Tampoco está demás que alguna vez se resalten en negrita o que aparezcan en los subtitulos.

5.- Transcripción del artículo y composición final.

Mi costumbre es escribir siempre los artículos a mano. Pero eso no tiene porqué ser así para todo el mundo. A mí me viene bien porque me concentro mejor y no me distraigo. Pero en todo caso, una vez escrito, si lo haces directamente en el editor de tu plataforma de blogging, necesitas añadirle las imágenes, los enlaces internos y externos (si los hay), vídeos, etc. Vamos, que necesitas “darle la forma final” al artículo.

Llegados a este punto se puede decir que ya hemos transformado la idea inicial en un artículo de nuestro blog. Pero antes de hacer click en el botón “publicar”, conviene releerlo un par de veces, pues siempre se nos puede colar un error gramatical o de ortografía. Estas cosas merman nuestra credibilidad como blogger, y no podemos permitir que este tipo de errores arruine nuestro trabajo.

¿Cómo borrar el historial web de tu cuenta de Google?

En el historial web de tu cuenta de Google, se almacena toda la información relacionada con las búsquedas que has hecho en Google, los resultados que se han mostrado y las páginas que has visitado como, por ejemplo, la URL. El historial web se activa en forma automática, al crearte una cuenta de Google.

Google personaliza las búsquedas que realizas en las páginas de resultado, en función –entre otros sistemas- de tu historial web. El historial web se activa, ya sea que hayas o no iniciado sesión en Google. Por eso, existen dos formas de borrarlo. Aunque en esta ocasión, nos vamos a referir a la forma de eliminarlo (y evitar que se registre en el futuro) desde tu cuenta de Google.

Existen personas celosas de sus datos, incluyendo las búsquedas que efectúan en Internet o usuarios que no desean darle a Google más poder del que tiene, por eso este tip puede resultarles interesante. Para ello, debes iniciar sesión en tu cuenta de Google y realizar estos dos pasos:

- Accede a la página google.com/history.
- Haz clic en Eliminar todo el Historial web.

No obstante, el propio Google nos dice que: “…siguiendo la práctica habitual del sector y de acuerdo con los principios de la Política de privacidad de Google, Google mantiene un sistema de registro independiente destinado a tareas de auditaría y a la mejora de la calidad de los servicios que ofrece a los usuarios”.

23 nov 2012

Las 4 reglas de oro del community management en Facebook

Según un reciente estudio de Socialbakers, el 95% de las marcas con páginas en Facebook no responden a los mensajes de sus fans. Esto evidencia que las marcas siguen contemplando esta red social como un medio tradicional, donde la comunicación fluye en un solo sentido.

En la Web Social la comunicación es bidireccional. Para evitar estos errores a la hora de aproximarse al community management en Facebook, el portal Allfacebook.com recomienda seguir estas cuatro reglas básicas:

1. El contenido y el community management están al mismo nivel

Crear contenido excelente es importante, pero no lo es menos desplegar un community management de primera calidad, en una estrategia socialmedia marketing.

El contenido cuenta la historia de la marca, pero el community management muestra el corazón de la marca.

2. Todo mensaje merece una respuesta

Cuando el fan de la página de una marca en Facebook publica un comentario, la marca está siempre obligada a responderle.

Da igual que no se trate de una pregunta directa. Hay que contestar siempre, aunque sea con un simple “gracias”.

Si alguien se toma la molestia de ponerse en contacto con una marca a través de Facebook, la marca también debe tomarse la molestia de contestarle.

Lógicamente, hay excepciones a esta norma. Los mensajes spam, los de contenido obsceno y vulgar y los especialmente controvertidos por abordar temas como la política y la religión no deben ser respondidos.

Un buen community manager está obligado a reconocer estas excepciones.

3. Los community managers deben ser expertos en la marca a la que representan

Un buen community manager debe ser especialista de la marca a la que representa en Facebook y, como tal, debe entender el pasado, el presente y el futuro de la marca.

4. Hay que responder rápidamente

El fan que publica un comentario en la página de una marca en Facebook lo hace con la esperanza de recibir una respuesta casi instantánea. Para no defraudar sus expectativas, hay que ser lo más rápido posible. El medio así lo exige.

¿Qué pasa con los nombres de usuarios inactivos en Twitter?

En algunas ocasiones, me preguntaron cómo recuperar nombres de usuarios en Twitter, que están siendo ocupados por otras personas, pero estas no los utilizan. Es decir, ¿cómo hacer para recuperar nombres de usuarios inactivos o suspendidos? Hace un tiempo atrás, Twitter supo liberar nombres de usuarios que tenían seis meses de inactividad como mínimo. De hecho, un lector con quien estuve muy agradecida, había recuperado una cuenta para mí.

Pero en la actualidad, Twitter dejó de lado (hace bastante) esta política de liberación de cuentas inactivas, es decir que ya no lo hace, aunque dice que es posible que en el futuro lo vuelva a hacer, pero que no tienen una fecha exacta para ello. Así que si deseas recuperar una cuenta inactiva, con el nombre de tu blog o con tu nombre (por ejemplo), deberás armarte de paciencia hasta que Twitter cambie de parecer. Las únicas cuentas que Twitter estarían transfiriendo (o eliminando) son aquellas que violan una marca registrada, como ya te lo comentemos en ChicaSEO.

Entonces, la pregunta del millón es: ¿Qué pasa si tengo una solicitud de nombre de usuario inactivo, pero no tengo una marca registrada? Y la respuesta de Twitter es la siguiente:

“Estamos trabajando en la liberación de todos los nombres de usuario inactivos, pero no tenemos un plazo para efectuar dicha acción. Si un nombre de usuario que te gusta ya está siendo usado por una cuenta que parece inactiva, considera utilizar una variación disponible en Twitter. En general, añadir números, guiones bajos o abreviaciones te puede ayudar a obtener un gran nombre de usuario que esté disponible”.

Twitter nos dice que tenemos que esperar, y nos aconseja agregarle números, guiones bajos o abreviaturas a nuestro nombre de usuario. La solución no me parece nada satisfactoria, pero bueno, por algo Twitter habrá tomado esta decisión.

Por último, les dejo una herramienta que nos avisa al e-mail cuando un nombre de Twitter ha sido liberado, aunque dudo que pueda servirles de mucho. Pero no se pierde nada con probar, ¿no les parece?

Facebook ya no quiere que sus usuarios voten

Facebook va a informar a sus más de 1.000 millones de usuarios de que planea un considerable cambio en su política que podría hacer que los usuarios no puedan decidir sobre los cambios en la plataforma.

Hasta ahora, cuando la red social quería realizar un cambio, los usuarios daban su opinión mediante comentarios. Si se superaba la cifra de 7.000, comenzaba un proceso de votación en el que conseguir un 30% de votos (actualmente, unos 300 millones) a favor o en contra hacía que esa decisión fuese vinculante.

Sin embargo, la compañía cree que en este sistema prima la cantidad de comentarios sobre su calidad, según explica Elliot Schrage, vicepresidente de comunicaciones, política y marketing de Facebook.

Erin Egan, directora de privacidad (CPO) de la red social, confirmó esto a TechCrunch. Cuando nació su sistema de votación, Facebook apenas tenía 200 millones de usuarios, por lo que conseguir que votasen unos 60 millones no era tan complicado. Sin embargo, ahora es necesario movilizar al menos a 300 millones de personas.

Por este motivo, han decidido proponer el fin de este mecanismo y sustituirlo por otro con el que consigan más feedback y compromiso. Así, si los cambios se llevan a cabo, se eliminará la votación del proceso.

Eso sí, por ahora los usuarios pueden evitarlo, ya que aún está vigente el sistema anterior. En el momento de escribir esta entrada se habían realizado 3.150 comentarios en menos de 24 horas, por lo que es muy probable que sea abierto el proceso de votación. El plazo para hacer comentarios termina el 28 de noviembre.

De todos modos, Facebook asegura que, “como siempre”, tendrá en cuenta la opinión de los usuarios y utilizará nuevos mecanismos de alerta cuando se modifique algún aspecto. Por lo tanto, los cambios todavía se podrán comentar durante siete días.

Además, a lo largo de las próximas semanas entrarán en funcionamiento otros métodos de respuesta, como una herramienta para enviar preguntas a Erin Egan. Por otro lado, Egan llevará a cabo webcasts en los que comentará las preguntas recibidas.

Más cambios

Facebook ha aprovechado la ocasión para incluir novedades menores en otros aspectos de la plataforma. Así, por ejemplo, ahora hay nuevos filtros en los mensajes privados que sustituyen la opción de elegir quién puede enviarlos.

Además, se ha reforzado la privacidad con recordatorios sobre lo que es visible para otros usuarios y con herramientas para administrar el nuevo timeline.

Pero, por otro lado, la red social quiere añadir un apartado para poder compartir la información que reciben “con negocios que son legalmente parte del grupo de compañías quel que Facebook es parte”. Es decir, Instagram.

Esto, como apunta Reuters, podría permitir la creación de perfiles unificados con la información e imágenes de ambas redes sociales, algo parecido a lo que hizo recientemente Google.

16 nov 2012

Marketing para Blogs en Twitter

Uno de los principales desafíos a los que se enfrentan los emprendedores al crear un Blog nuevo es atraer a las primeras visitas, existen muchos factores para que esto sea una tarea difícil, un sitio nuevo en Internet no tiene ningún tipo de presencia alguna y es difícil llegar a el cuando no existen referencias de otros sitios, hay que indexar el sitio o Blog a Google pero cuando un sitio es nuevo deberemos esperar para que este se apruebe sobre todo cuando no tenemos mucho contenido habrá que ser pacientes y esperar, otro desafió es que probablemente tus visitas no provendrán del buscador de Google para que esto suceda debes hacer mucho trabajo no solo de SEO sino de publicar mucho contenido nuevo y fresco, ademas de trabajar en cuestiones como la imagen de tu sitio, ¿Como podemos enfrentar este problema?

Sobre todo sin que se vuelva un dolor de cabeza que termine desmotivandonos y haciendo que abandonemos nuestro proyecto antes de que empecemos a ver los primeros resultados, porque de algo debes estar muy pero muy seguro y es que pasaran por lo menos algunos meses antes de que veas resultados favorables, sobre todo cuando tienes muy poca experiencia desarrollando sitios, escribiendo contenidos de calidad, no conoces de SEO, o no eres un internauta muy bien informado. Existe una solución que puede ser mas rápida por experiencia para ganar cierta presencia y es el uso de la Red Social Twitter, te ofrezco una pequeña introducción sobre cuales son los primeros pasos para lograrlo.

Twitter es una red social del tipo Micro Blog, donde puedes escribir mensajes de hasta 150 caracteres, incluir enlaces, posición geográfica, fotografías entre otras muy buenas opciones para atraer visitas y crear contenidos interesantes fácilmente enlazables a tu sitio o Blog.

Una de las ventajas como Blogger es que se tiene mucho de que hablar o que escribir, sobre todo porque no hay limite para hacerlo mas que nuestra propia creatividad, el actualizar el Blog es una tarea diaria que ayudara en varios aspectos a la hora de atraer visitas. Twitter es una excelente red social para Bloggers sobre todo porque podemos llegar rápidamente a muchos usuarios que comparten los mismos intereses nuestros o de nuestros sitios, solo hay que conocer un poco sobre como utilizarlo.

¿Como empezar?

Lo primero que hay que hacer como en otros sitios es registrarnos, crear un nuevo usuario con un nombre que nos identifique o a nuestros intereses, una vez hecho esto habrá que personalizar nuestro perfil haciéndolo llamativo o que nos identifique sobre todo cuando tenemos un sitio web y lo queremos dar a conocer dentro de la Red Social, podemos incluir ademas el enlace principal de nuestro sitio, una vez terminado este paso y configurado nuestro perfil a fin a lo que deseamos obtener de la red o lo que deseamos proyectar estaremos listos para comenzar.

El segundo paso principal es comenzar a seguir a personas, grupos, sitios en fin a otros usuarios de la red Social sobre todo que sean usuarios que tengan una buena cantidad de Seguidores y sean muy afines a nuestro nicho de mercado, esto ya que Twitter hace recomendaciones de usuarios para seguirlos en base a nuestras preferencias o las de otros usuarios que seguimos, no solo es importante seguir a usuarios reconocidos sino a usuarios que tienen una cantidad no tan grande de seguidores porque es muy probable que esos usuarios te sigan a ti también.

Después de armar tu red habrá que publicar tu primer Tweet es sumamente fácil lo puedes hacer directamente desde tu perfil o desde el icono de escribir un nuevo Tweet aquí escribiremos lo que sea de preferencia una presentación, no siempre es necesario publicar enlaces, sin embargo cuando realizas una nueva actualización es bueno que la publiques en Twitter con el titulo de la entrada o con algún mensaje que capte la atención.

Otro de los trucos buenos en Twitter es el poder entrar en discusiones anticipando un "#" a la palabra o frase a la que deseamos entrar esto puede atraer cierto trafico, el entrar en discusiones sobre todo cuando son tendencias puede ayudar a atraer mas visitas aun, puedes entrar a discusiones o crear las tuyas sin embargo.

 Lo siguiente sera ir mejorando tu perfil, tu red de seguidores y sobre todo seguir trabajando en publicar nuevo contenido en tu Blog, esto puede ayudar a tu proyecto de Negocios en Internet.

Cómo evitar que aparezca información confidencial en Google

Algunas veces tu información confidencial (número de tu documento, de tu cuenta bancaria, de tu tarjeta de crédito, etc.) puede aparecer en los resultados de búsqueda de Google, perjudicándote o exponiendo datos que no deseamos que puedan ser conocidos por terceros. Esto puede afectar nuestra identidad digital o directamente alguna de las facetas de nuestra vida.

Y justamente para esos casos, para cuando en las páginas en los resultados de búsqueda de Google, se muestra tu información confidencial, la empresa pone a disposición de los usuarios diferentes formularios. A través de ellos, podrás dirigir una solicitud a Google para que elimine la información de los resultados de búsqueda. Google también aconseja –reiteradamente- que te pongas en contacto con el dueño del sitio web para que borre la información en forma inmediata.

Ahora bien, ¿qué tipo de información confidencial puedes pedirle a Google que elimine de los resultados de búsqueda? Pues, la que detallamos a continuación. Cada uno de los supuestos, tiene previsto su propio formulario para presentar una solicitud, la cual será revisada por la empresa:
  • tu número de la Seguridad Social o tu DNI,
  • el número de tu cuenta bancaria o de tu tarjeta de crédito,
  • una imagen de tu firma manuscrita,
  • tu nombre y apellidos o el nombre de tu empresa, que aparecen en un sitio con contenido para adultos no deseado en los resultados de búsqueda de Google.
Más información en Cómo evitar que aparezca información personal en Google, allí podrás acceder a los diferentes formularios para cada uno de los casos.

¿Cómo saber si mi sitio ha sido penalizado por Google?

Esta es una pregunta hecha a menudo por muchos webmasters que no ven su sitio en la primera página para sus palabras clave.

Google banea/penaliza sitios que utilizan técnicas blackhat (sombrero negro). La mayoría de estas técnicas se utilizan cuando el sitio está optimizado utilizando técnicas de seo  que se conocen como “sombrero negro” – por lo tanto el propietario del sitio web / Webmaster tiene pleno control sobre el uso de tales técnicas. Desafortunadamente, Google no notifica a los propietarios del sitio Web si su sitio está penalizado, ni siquiera muestra un error en las Herramientas para webmasters. Encontrar la respuesta requiere un poco de experiencia de su parte.

Para saber si tu sitio está penalizado (con tarjeta roja) por parte de Google, sigue los siguientes pasos:

1 – Copia una porción del contenido de tu sitio (al menos dos oraciones) y pegalas en la búsqueda de Google entre comillas (“texto de tu sitio”). De esa manera le estás pidiendo a Google que busque sólo los sitios que tienen ese contenido exacto. Si sólo ves tu sitio en los resultados de búsqueda, significa que todo está bien. Si ves a otros sitios que aparece junto a tu sitio, pero el tuyo está en la parte superior, eso significa que los otros sitios de haber copiado tu texto y eso no es una buena cosa, pero tu sitio todavía no está penalizado. Sin embargo, si tu sitio no aparece en la parte superior o no aparece en absoluto, eso significa que o bien tu sitio está penalizado, o has copiado un texto ajeno – y ninguna de las dos son una buena noticia.

2 – Búsqueda en Google para algunas de las palabras clave en la etiqueta del título de su sitio (la etiqueta del título aparece en el código de su sitio de back-end como en el texto después de title – (También, se muestra en la parte superior del navegador cuando cargas tu web). Si tu sitio aparece 1, o hacia la parte superior de los resultados de búsqueda de Google, entonces no está penalizado.

3 – Busca tu palabra clave principal (que debiera ser parte de la etiqueta del título, si lo has optimizado correctamente). Si tu sitio está en las primeras 10 páginas, lo más probable es que no está penalizado. Si aparece después de la página 10, es muy probable que tenga alguna penalización. Digo “probablemente” porque esto depende de muchos factores como la selección de tu palabra clave principal correctamente, la competencia existente, etc.

Y si mi sitio ha sido penalizado por Google, ¿hay alguna posibilidad de conseguir que salir de esa penalización?

En la mayoría de los casos, sí, puedes conseguir salir de la penalización – y últimamente Google lo hace con bastante rapidez. Para anular la penalización de tu sitio, sigue los siguientes pasos:

1 – Identificar por qué su sitio ha sido penlaizado en el primer lugar. Algunas de las razones comunes son el uso de texto duplicado, contenidos irrelevantes, palabras claves repetidas por todo el sitio, páginas puerta, etc. Esto es, con mucho, el paso más importante. Si no puedes identificar por qué Google ha penalizado tu sitio Web, no hay manera que puedas ayudar a eliminarlo.

2 – Eliminar la táctica de  “sombrero negro” que hayas empleado en tu sitio. Si has utilizado contenido duplicado, volver a escribir. Si has utilizado keyword irrelevantes, quitarlos, y así sucesivamente.

3 – La próxima vez que las arañas de Google visiten tu sitio web, se darán cuenta de que has quitado las técnicas de spam y poco a poco le dará a tu sitio mejor posición en los resultados de búsqueda. Si deseas que el proceso tenga lugar más rápidamente, debes obtener algunos enlaces entrantes hacia tu sitio.

En general, evita el uso de técnicas cuestionables de seo en tu sitio. Un poco de buena suerte también viene bien para salir de una penalización de Google.

11 nov 2012

¿Por qué estar en Google Plus?

Si está buscando un medio de exposición masiva, Google+ no será el mejor canal para hacerlo. Pero si lo que quiere es mejorar su posición entre los resultados de búsqueda de Google, esa red social podría ayudarle a lograrlo.

El hecho de que, con Search Plus Your World , el usuario pueda encontrar en Google los resultados sugeridos por el motor de búsqueda, junto con otros contenidos compartidos por sus contactos y relacionados con lo que busca, explica en parte la mejora en el posicionamiento.

Además, algunas de sus características, como el author tag (que liga al autor de una publicación en cualquier sitio con su perfil en Google+), el permalink (que es el URL que se genera con cada post hecho en la red social) y los hangouts (que pueden ser compartidos por YouTube) contribuyen también a ello.

Justamente, la integración que tiene Google+ con los otros servicios del gigante de Internet es lo que le da su valor.

“Google + no es una red social; es upgrade de Google porque tomamos cosas que ya existían y les agregamos una capa social. Eso le permite al usuario dar a conocer a otros lo que hace en el mundo online y crear así comunidad”, explica Ricardo Blanco, gerente de comunicaciones de producto Google, Latinoamérica.

No obstante, querer mejorar el posicionamiento no debe ser la única justificación que motive su presencia ahí, pues no es el único mecanismo de optimización de motores de búsqueda (SEO) existente. “La calidad del contenido es la mejor técnica de posicionamiento”, asegura Carla Cabalceta, CEO de ComDigital.

Cómo darse cuenta que te están colando un comentario spam

Desde que he iniciado este blog algunas personas han conseguido colarme un comentario spam. Aunque haya podido filtrar el 99,99% con ayuda de herramientas automatizadas (plug-in de WordPress “Antispam Bee”) y moderación manual no he podido llegar al 100%. Me sorprende que haya sido posible visto que ya llevo 8 años como blogger y debería ser capaz de diferenciar un comentario que aporta valor de uno que no lo es.

¿Qué se puede considerar como un comentario spam?

Un comentario spam típicamente no aporta valor buscando únicamente el beneficio propio. La idea es sacar provecho de la audiencia existente de un blog para redirigir visitas hacia el propio. En otras ocasiones también se busca el valor SEO que se puede obtener dejando un enlace en el campo de comentarios.

En ocasiones no es tan difícil la clasificación como spam cuando se trata de un feedback de un lector. Una crítica positiva de un post puede ser de una persona real. Aparte del “buen post” o “felicitaciones por el blog” no aporta gran valor con información adicional de la ya expuesta en el artículo. Existen dentro de este tipo algunas que sacan provecho del ego del blogger porque saben que es su gran debilidad consiguiendo colar sus enlaces.

5 tipos de comentarios spam y cómo identificarlos

Si para mi sigue siendo difícil me imagino que para un principiante debería ser todavía mucho más complicado identificar en cada momento lo que es spam y lo que no. Sobre todo al principio te alegras sobre cada notificación y no quieres realmente llevarte una decepción de que alguien se esté aprovechando de tu blog. En algunos casos puede ser más obvio que en otros para darse cuenta que te están colando un comentario.

1. Comentarios en inglés (siempre spam): si tu blog está escrito en castellano es muy poco probable recibir un comentario en inglés. Cuando pinchas en el enlace y además y además te encuentras ofertas de Rolex o Viagra puedes estar totalmente seguro. Lo mismo se aplica a chino, japonés, ruso, etc. y otros idiomas que no sea el de tu blog. La mayoría de estos comentarios spam los detectan las herramientas de filtro que automáticamente las mueven a la carpeta adecuada sin que te des cuenta de ello.

2. Falso feedback positivo (requiere moderación manual): a mí me ha ocurrido. No era el típico “buen post” sino un comentario más largo de 4 o 5 frases por lo que destacaba del típico comentario spam de esta categoría. Cuando recibí el mismo comentario varias veces ya me di cuenta y borre los que ya estaban aprobados. Si considero que el feedback es autentico lo suelo aprobar visto que para algunos lectores el campo de comentarios son un canal para darme su feedback.

3. Nombre que es una palabra clave (depende si el comentario aporta valor): con este tipo de comentarios no soy siempre tan estricto. En vez de utilizar el nombre se incluye una palabra clave con el objetivo de mejorar el SEO de la propia página. La mayoría de ellos sigue aportando valor al post cuando hacen uso del campo de texto por lo que en una escala del 0 al 10 lo clasificaría únicamente con un 2 o 3 siendo el 10 el caso más grave de spam. Para comentar de manera 100% correcta se debería utilizar el nombre en vez de una palabra clave.

4. Incluir enlace en el comentario (depende de la política de moderación): hay bloggers que independientemente del valor del comentario consideran que añadir un enlace al propio blog o sitio es hacer spam. Lo valoro un poco diferente visto que para mí es como dar una recompensa visto que lo que se ha comentado ha sido útil para el resto de los lectores (y para mi evidentemente también). Así que en este blog no hay problemas pero en muchos otros la probabilidad de aprobación baja mucho si se incluyen un enlace a la propia web.

5. Hacer una recomendación de la propia empresa (spam): es bueno estar convencido sobre la calidad y utilidad de los propios productos. Es evidentemente que vayas a decir algo positivo y recomendar su uso. Por lo tanto la credibilidad de tu comentario es casi nula aunque sea cierto lo que digas. Recomendar los propios productos y servicios a través de un post no es una buena idea aunque encaje temáticamente. La gran mayoría de los bloggers va a tener la sensación de que además de hacerles spam quieres obtener publicidad con su ayuda pero de manera “by the face”.

Averiguar lo que es spam y lo que no, es más complicado de lo que puede parecer. Al final decides tú como blogger sobre las reglas de moderación.

¿Cómo debería ser el tono de un blog?

Hace poco leí un post del emprendedor Xavi Sanchez titulado “Me rebelo contra el mundo”. Fue el primer post donde literalmente cambio de tono y explico también el por qué. Fue Isra Garcia (“un hombre que hace mapas” ) que le convenció de soltarse en su blog para reflejar la persona que realmente es. La entrada de Xavi me inspiró días más tarde a finalmente escribir este post sobre la importancia del tono en un blog.

Lo notas que falla cuando falta. El tono marca la diferencia en un blog. Los alemanes dicen “der Ton macht die Musik”. Literalmente traducido seria” el tono hace la música”. Significa que no importa únicamente lo que decimos sino también el cómo. Imagínate a un ponente que tiene unas diapositivas espectaculares pero la monotonía de su voz te provoca el sueño. En un blog ocurre lo mismo. Si quieres evitar ser ese blogger que nos hace dormir ten en cuenta estos aspectos.

1. Evita el “hola, ¿qué tal estás?”: es algo que he aprendido de una de mis primeras profesoras en alemán. Nos prohibió empezar una carta con esa frase porque muestra claramente que no tienes ni idea lo que vas a contar. Muchos blogs empiezan con “hola, ¿qué tal estás?” para romper el hielo con el lector. En realidad sirve únicamente para el blogger que consigue evitar el bloqueo porque así ya está escribiendo algo. Si como truco te sirve no cambies la manera de empezar un post. Lo único que debes hacer es borrar la primera frase cuando hayas redactado la entrada hasta el final.

2. Muestra tu personalidad: en un blog el lector quiere encontrar un blogger. Esto conlleva mostrar parte de tu personalidad. No significa que tengas que revelar detalles íntimos pero tampoco no escondas ni maquilles quien en realidad eres. Intentar parecer un Superman no ayuda realmente para caer bien. Son más simpáticos aquellos que no ocultan sus debilidades sino las utilizan como arma de seducción.

3. No digas “ustedes” ni “vosotros”: dirígete al lector de manera más cercana posible. Hablar de “usted” crea distancia. Con “vosotros” siempre te diriges a varios y la persona que está leyendo un artículo tuyo no percibe realmente que te refieres directamente a él. El “tú” crea la cercanía que ayuda a crear la sensación que has escrito el post para él.

4. Escribe cómo hablas: cuando alguien lea un post tuyo tiene que tener la sensación que le estás hablando estando delante de él. No se trata de utilizar palabras técnicas y complejas para que aparezcas más inteligente. En realidad ocurre lo contrario. Vas a parecer un idiota por intentar aparentar más intelectual que la media de tus lectores. Un buen consejo es escribir al estilo “libro para torpes”. Así no corres el riesgo que los visitantes de tu blog no entiendan lo que estás diciendo.

Un blog ya no se escribe y el tono es la sal que le da el sabor. No permitas que tu estilo sea soso y en consecuencia no guste. Tu lector quiere conocerte. Lo único que tienes que hacer es reflejar quien eres en el texto escrito.

5 nov 2012

¿Al citar otra fuente, seré penalizado por contenido duplicado?



Como todos sabemos, Google es inflexible con respecto a contenido duplicado, ahora más que nunca. Esto es debido a que muchos blogs y sitios web se lucran a costa de otros, a través de la copia de contenido.

Esto no solo es injusto para la fuente original del contenido, ya que también afecta la integridad de los resultados de búsqueda brindados por los motores de búsqueda.

Pero, ¿qué sucede al agregar frases, oraciones o párrafos citados  de otras fuentes, en mi sitio web?

Esto se clasifica como contenido copiado directamente de otro sitio web. Entonces, ¿Cómo trata Google ese tipo de contenido, es seguro incluirlo en nuestro sitio web?

Google recientemente publicó un video, donde a través de Matt Cutts, jefe del departamento de SPAM de Google, nos aclara esta interrogante. Te invito a ver el video (se encuentra en inglés).

El Caso ideal

En un mundo ideal, las personas solo copiarían frases, o cosas dichas por otras personas que a ellos les gustan. Por ejemplo, citas o frases dichas por un autor publico o figura publica, citando partes de discursos, avisos, etc.

Así se supone que deben funcionar las Frases o citas.

Si ese es el caso, y quieres agregar esa clase de contenido a tu sitio, hazlo sin temor, siempre y cuando agregues un link a la fuente original y coloques la frase o cita en la etiqueta HTML. Así todo saldrá bien.

Las personas frecuentemente se preguntan:

¿Cómo sabrá Google si solo es una frase o contenido duplicado?

Los algoritmos de Google son bastante sofisticados y detectan si es una frase o contenido duplicado. Además, Google puede chequear tu sitio manualmente.

Mis recomendaciones al citar contenido de otro sitio son:

    - Cita únicamente Frases, partes de un discurso, o un fragmento de algo dicho por alguna persona
    - Nunca cites más de 60 palabras (1 párrafo normal)
    - Siempre da crédito al autor original de la Frase
    - Agrega valor a la frase o cita

Cuando las cosas salen mal

Muchas personas tratan de ganarle a Google, violando sus reglas. Pero, tarde o temprano son penalizados.

Buffer, envía automáticamente los tweets en los momentos de mayor exposición

Hace unos días, un amigo me preguntaba si existía alguna herramienta que permita conocer en qué momentos del día los tweets que publicamos en Twitter tendrá mayor visibilidad y exposición, para así lograr más RT y que más personas los lean. Esto es importante si queremos promocionar un evento, un concurso, algún artículo del blog o alguna actividad que nos interese difundir. Y si bien yo le recomendé algunas aplicaciones en ese sentido, hoy les traigo a la “estrella” de este tipo de herramientas, la que puede ser de utilidad para todos los lectores.

Se trata de Buffer, una aplicación que envía tus tweets en el mejor momento del día para obtener la mayor cantidad de interacciones posibles. La aplicación puede descargarse como extensión de Google Chorme, Firefox o Safari, y cuenta también con aplicaciones nativas para iPhone y Android. También nos ofrece un análisis gratuito y detallado de la repercusión de todos los mensajes que enviamos a las redes sociales (Twitter, Facebook y Linkedin). En síntesis, Buffer sirve para publicar mensajes que se enviarían automáticamente en el momento en que pueden obtener mayor exposición. ¿Qué me cuentan? ¿Les parece productivo? Yo creo que sí.

Buffer es gratis hasta las 10 actualizaciones programadas, a partir de esa cantidad podrán adquirir la versión Premium, si le ha parecido útil o interesante para sus trabajos o para la promoción de sus contenidos y eventos.

La gurú de las fashion bloggers

Para ser leído por millones de personas, para ser invitado a las primeras filas de los desfiles más importantes, para marcar tendencia y para hacer negocios con grandes marcas de moda y belleza un fashion blogger tiene que destacarse entre la multitud. Las claves para lograrlo las tiene esta bloguera, fundadora de Style Coalition, autora del libro Blogging Your Way to the Front Row (Blogueando tu Camino a la Primera Fila) y creadora de Fashion 2.0 Social Media Awards.

Hoy existen más de dos millones de blogs de moda en la red. Detrás de sus fotos de street style, resúmenes de pasarela y las impresiones personales de quienes los escriben también hay un negocio que mueve considerables cantidades dinero a nivel mundial. Y en solo un par de años las grandes marcas de moda y belleza han entendido la influencia que estos medios digitales tienen en el mercado, en parte, gracias a emprendedores como Yuli Ziv, la creadora de Style Coalition.

Hace una década esta diseñadora gráfica, nacida en Rusia pero criada en Israel, dividía su tiempo entre su trabajo como directora creativa en agencias de publicidad con su blog de moda My It Things. Cuando su emprendimiento virtual despegó, se propuso conjugar ambas actividades y explorar en el que, en su opinión, era un potencial nicho de nuevos negocios. Así nació la idea para fundar esta asociación que hoy reúne a 50 destacados blogueros y que, entre otras iniciativas, mantiene una alianza comercial y estratégica con Hearst Corporation,  editorial responsable de revistas como Elle, Marie Claire y Harper’s Bazaar, entre otras.

“En el año 2008 tenía un panorama bastante detallado de lo que estaba pasando con los blogs de moda y belleza. Muchos de los blogueros que conocí en esa época tenían una buena lectoría pero les faltaba potenciar su área de negocios y les era muy difícil llegar a las grandes empresas. Con esa idea reuní a los que me parecían más interesantes en ese momento y juntos hicimos fuerza en común para negociar más fácilmente. Y funcionó. Fuimos pioneros en ofrecerles a las firmas de moda la oportunidad de expandir sus campañas coordinadamente en estos medios, y a los blogs les dimos una nueva oportunidad de financiamiento”, asegura al teléfono desde su oficina en Nueva York.

¿En sus comienzos hubo una buena recepción de la industria a la propuesta de Style Coalition? Cuando comencé hace un par de años era todo muy nuevo. Tomó un tiempo para que las marcas se convencieran y se la jugaran por los medios online. Ellos, en un principio, creían que no debían apostar grandes sumas y que debían conservar el grueso de su presupuesto en publicidad tradicional, pero logré convencerlos a ir por más en la red.

Imagino que hoy ya no es necesario tanto esfuerzo. Siempre requiere esfuerzo pero ya no es necesario convencerlos de que invertir en medios digitales vale la pena. Este negocio está creciendo exponencialmente y las marcas ya tienen incorporada la idea de que el éxito de sus campañas está directamente relacionado con la cobertura que tengan en los blogs más leídos. Los blogueros son cada vez más influyentes porque son el vínculo entre las marcas y los consumidores, un eslabón intermedio y una combinación entre un experto y un amigo en el que confías.

¿Crees que esta influencia es suficiente para cambiar el rumbo de una colección o de un producto de belleza una vez que estos llegan al mercado? De todas maneras. Incluso me parece que deberían considerar ese feedback durante la creación del producto. Muchas veces los diseñadores sueñan con colecciones pero no saben con certeza si estas se venderán. Involucrar a los medios digitales y sus lectores en las instancias previas puede ser útil  para ellos. A veces esta industria opera de una manera poco eficiente, produciendo colecciones muy por adelantado, y en un mundo tan cambiante eso puede ser peligroso.

¿Cómo pueden los blogueros mantener independencia en sus contenidos cuando generan una relación tan estrecha con las marcas? Pueden, por eso creo que es tan útil para ellos ser parte de una agrupación como Style Coalition, porque así no tienen que relacionarse personalmente con las marcas. Los negocios pasan por nosotros. Siempre aconsejo a las marcas no mezclar solicitudes editoriales con comerciales, eso enturbia las cosas.

¿Cómo eligen a sus nuevos miembros? Llegan miles de aplicaciones, por eso tratamos de seleccionar muy bien y privilegiar calidad sobre cantidad. Queremos crecer pero enfocándonos en gente que ve sus blogs como un negocio, como algo profesional. Hay casi dos millones de blogs de moda dando vueltas, pero muchos de ellos no están comprometidos con llevarlos al siguiente nivel.

¿Qué se necesita para destacar como fashion blogger? Es una combinación de muchos factores. Principalmente ser creativo, inteligente en los negocios y ser  profesional. Yo veo a los blogueros como pequeños empresarios y su marca es su estilo, por eso tener una voz y una mirada es muy importante. Tener un sentido de la estética es fundamental. Las fotos y los textos tienen que ser buenos, no solo deben ser personajes entretenidos. Al final del día si quieres que la gente trabaje contigo también debes cultivar el profesionalismo.

¿Cuáles son las marcas de moda que más destacan en los medios digitales? Burberry, de todas maneras. Ellos fueron los primeros en comprometerse y se han adaptado, antes que nadie, a las nuevas tecnologías. Fueron los pioneros en hacer live streaming de sus shows. También DKYN, que ha hecho un trabajo muy significativo sobre todo en redes sociales. Ellos en el año 2008 ya estaban activos en Twitter. En esa época (Twitter se creó en 2006) no había nadie del mundo de la moda con una presencia fuerte en esta red social. Ambas marcas han sido precursoras y además se han mantenido a la vanguardia.

Fashion 2.0 Awards

Son como los Oscar de la moda en internet y en este momento están preparando la cuarta edición de esta premiación que se realizará el próximo febrero en Nueva York. “Todo esto nació muy orgánicamente. Queríamos premiar a las marcas de moda que hacían cosas realmente cool pero que nadie sabía. No había premios exclusivos para ellos y sus iniciativas digitales”, asegura Yuli, su creadora. En su edición 2012 los reconocimientos  se los llevaron, entre otros, Marc Jacobs, como Mejor Sitio Web; Bergdorf Goodman, al Mejor Facebook, y Prada, el Mejor Video Online por su campaña audiovisual para su colección primavera/verano 2011.

30 oct 2012

Faltas de ortografía y gramática: riesgos que ocasionan en la web

Esto ya no debería ser novedad, recuerdo hace algo más de un año leí en la BBC la opinión de un empresario británico que manifestaba que un sitio web con faltas de ortografía y gramática podría reducir las ventas online hasta en un 50%.

Debemos tener presente, que cada día son miles los internautas que utilizan internet en busca de productos para su hogar, lugares para visitar en sus próximas vacaciones, informarse sobre los espectáculos en cartelera, compra de vestimentas, y según van las cosas, este “tránsito” será cada vez mayor.

La primera impresión de nuestro negocio que tendrá un usuario que no nos conozca, será a través de la página web de nuestra empresa. Por este motivo es tan importante que cuidemos estos detalles pues si no lo hacemos corremos el riesgo de restar credibilidad al producto que ofrecemos y, al mismo tiempo, estaremos aportando una imagen  de negligencia a los visitantes de nuestro sitio.

Sigo con otro de los peligros que atentan contra la buena salud de nuestra página web, me refiero a los traductores automáticos, especialistas en “horrores” en cuanto a gramática se refiere. Aunque se han ido perfeccionando, siguen dando a luz textos sin sentido, totalmente incoherentes, y que hay que pasar horas tratando de reinterpretar para recuperar el sentido general. En gran parte, el origen de este problema es creer que se puede traducir un idioma sin conocerlo, lo pasamos por el traductor online y así como “sale” (como si fuera un bizcocho salido del horno), lo pegamos en nuestra página y tan tranquilos. Por supuesto que las empresas recurren a estos traductores para reducir costes, pero como se dice comúnmente, lo barato sale caro, puesto que esta falta de control de calidad las llevará a una pérdida en las ventas, situación que cambiaría totalmente si se efectuara una revisión en condiciones con expertos.

Y para finalizar, no podemos dejar de lado algo muy importante, que las faltas de ortografía y gramática también pueden afectar al posicionamiento web de nuestra página. Si nuestros textos son incorrectos o tienen faltas de ortografía, no se posicionarán correctamente en los buscadores.

Tener una página web profesional requiere todo nuestro esfuerzo, de ella depende el éxito de nuestro negocio.

ARCHIVO DEL BLOG