Como ganar dinero con su blog, Servidores blog, Plantillas para bajar, Contadores de visitas, Adsense, Estadísticas y mucho más.
-
-

5 feb 2011

Estadísticas y SEO para tu Sitio Web: GoingUp!

GoingUp es una aplicación web con la que tendrás acceso a estadísticas avanzadas y funciones SEO ampliadas para tu Sitio web.

El servicio que ofrece GoingUp, a través de una interfaz basada en Ajax, es bastante completo. Ofrece análisis de tu sitio web, con informes por palabras clave, de acción y por objetivos...

Para generar la analítica de tu sitio utiliza mapas de calor, gráficos, banderas para localizar el tráfico por países...

Hace seguimiento de enlaces, también por Google Page Rank y Alexa Rank, dispone de búsquedas por palabra clave, palabras clave de seguimiento de posición. Página de herramienta de optimización y otras herramientas para palabras clave de densidad.

El servicio dispone de otras herramientas como valoración de tu sitio o enlace optimizador de SEO sin necesidad de registrarse en su página web.

Kickstarter, financiación en masa para nuestro proyecto

Muchas veces lo más difícil para un emprendedor es conseguir inversiones para su idea o proyecto. Sin embargo, y gracias a Internet, existen diversas formas de obtener financiamiento, incluso algunas muy originales o accesibles.

Es así que en abril del 2009, aparece Kickstarter, un sitio que se basa en el concepto de “crowdfunding” o “financiación en masa” o “financiación colectiva”, que es como se lo traduce al español.

La financiación en masa es un sistema de cooperación colectiva, llevado a cabo por personas que realizan una red para conseguir dinero u otros recursos, el cual se puede utilizar para muchos fines: artistas buscando vender (y/o difundir) sus obras, campañas políticas, conseguir dinero para desarrollar emprendimiento personales.

Es decir que no estamos ante un sistema totalmente nuevo, pero si original, y que justamente es el que utiliza Kickstarter, el cual ha sido considerado uno de los mejores inventos del 2010 por Times.

En este sitio, pueden registrarse quienes tengan un emprendimiento o proyecto, pero que no consiguen fondos para llevarlo a cabo, es decir que necesitan patrocinio, el cual se logra mediante donaciones.

Los creadores de los proyectos pueden solicitar una donación mínima o comprometerse a premiar a los mayores patrocinadores de alguna forma o a postear las actualizaciones de su proyecto, como si fuera un blog.

Los proyectos deben reunir una serie de requisitos como ser creativos, aportar beneficios a la comunidad, etc. Es decir que seguramente las ideas más innovadoras serán las que recibirán mayores inversiones.

Según diferentes comentarios, podemos encontrar muy buenos proyectos en Kickstarter (relacionados al arte, el diseño, el cine, el video, la música, la alimentación, etc.). O también participar como inversionistas.

Por último, quiero contarles que Kickstarter ha financiado proyectos como Diaspora, la versión libre de Facebook, el cual reunió más de $200,000 dólares en pocas semanas.

SEO para Twitter

Google y Bing incorporan desde hace poco resultados en tiempo real de Twitter. Pero ¿Que criterios siguen estos grandes buscadores para posicionar y ordenar los “tweets” – cada microentrada que realizamos en Twitter – en los resultados? Poco a poco vamos descubriendo esta información , por lo que podemos hablar de factores SEO para Twitter.

-Tanto para Google como para Bing parece un factor fundamental en número de seguidores (followers) que se tiene. Los usuarios de Twitter con mayor número de seguidores posicionarán mejor que los que tienen pocos.

-Google en particular no sólo tiene en cuenta la cantidad sino también la calidad. Es decir, no solo tiene en cuenta el número de followers sino el prestigio y poularidad de éstos.

-Google penaliza en excesivo uso de “hashtags” en Twitter. Las hashtags son una las etiquetas que van precedidas de una almohadilla ” # ” y que agrupan una serie de tópicos comunes, enlazándolos.

-Por supuesto evita hacer spam.

2 feb 2011

Envía newsletters a tus lectores de WordPress

Envía newsletters a tus lectores de WordPress. Si tienes un blog en WordPress seguramente estarás interesado en avisar a todos tus lectores frecuentes la publicación de algún nuevo contenido. Pues bien, existe una herramienta que hará este trabajo por ti y enviará newsletters a todos los lectores y suscriptores.

La herramienta se llama WordPress Newsletter Sender y se puede descargar de manera gratuita. Al instalarlo en nuestro computador, el programa accederá a la base de datos de nuestro blog y extrae de allí todas las direcciones de correo electrónico de los lectores.

Entre las opciones que facilitan y que nos permiten un mejor manejo del WordPress Newsletter Sender está la de limitar la extracción de las direcciones de los comentaristas del blog o de los inscritos al mismo. Claro está que se puede permitir en los dos casos.

La descarga de WordPress Newsletter Sender es gratuita y muy rápida. Además, apenas ocupa 1MB de memoria. Lo importante es que nos permitirá tener una divulgación más inmediata y efectiva de nuestros artículos y contenidos, generando un mayor tráfico en nuestras páginas.

6 extensiones de Google Chrome SEO que debes conocer

El posicionamiento en buscadores o posicionamiento web (SEO por sus siglas en inglés, de Search Engine Optimization) es el proceso de mejorar la visibilidad de una página web en los diferentes buscadores (Google, Yahoo!, Bing, etc.) de manera gratuita.

Las extensiones para Google Chrome es uan de las mejores maneras de agregar características a nuestro navegador y hay un montón de extensiones de SEO que pueden ayudarte a optimizar tus páginas web. El uso de estas extensiones puede aumentar mejorar la posición de tu sitio web y conseguir más tráfico de los motores de búsqueda. En el artículo 6 Must Have Google Chrome SEO Extensions, publicado por Pelfusion, nos dejan seis extensiones de Google Chrome para el tema:

1. Chrome SEO. El Google Chrome SEO extensión proporciona un fácil acceso a la optimización del Search Engine herramientas que pueden ayudarle con Análisis de la competencia, investigación de palabras clave, controles de retroceso, cheques de PageRank y otras tareas de SEO diaria.

2. SEO Site Tools. Para comprobar diferentes parámetros SEO, muy completo.

3. SEO & Website Analysis. Proporciona un informe de SEO muy profundo para cualquier sitio web.

4. SEO Status Pagerank/Alexa Toolbar. Comprueba el Pagerank de Google (PR) y el ranking de Alexa de cada página.

5. SeoQuake. Muestra el PageRank de Google, el ranking de Alexa y otros parámetros SEO de cualquier página web, pone de relieve los vínculos nofollow, la densidad de texto, comprueba y comparar las direcciones URL, etc.

6. Keyword Eye. Nos proporciona ideas de palabras clave para una determinada palabra o URL en un formato de nube, donde indicará el volumen de búsquedas por el tamaño de la palabra clave y la competitividad por el color.

Posicionamiento SEO: De la democracia a la oligarquía de Google

Hace unos meses ya avisamos de que Google se estaba poniendo duro y se había empecinado en priorizar el contenido de calidad en el cálculo de su algoritmo. Los resultados no se han hecho esperar, y desde principios de año son muchas las webs que han padecido variaciones notables en su posicionamiento natural, retrocediendo muchas posiciones en los resultados de las búsquedas para las principales palabras clave.

No hace falta ser un genio para intuir las consecuencias directas de esta actualización del algoritmo de Google en la capacidad de generación de ingresos de las páginas web afectadas. Un verdadero tsunami. Y lo malo es que no hay vuelta atrás. Algo parecido a cuanto te pitan un penalti en contra: ¿Alguien ha visto alguna vez a algún árbitro rectificar? Pues con Google ocurre lo mismo.

Esta cruzada contra el “contenido basura” que ha comenzado Google vivió su segunda entrega la semana pasada con el comunicado que los de Mountain View colgaron en su blog. Básicamente vienen a refrendar la anterior postura, y especifican que se va a perseguir, detectar y discriminar aquellas páginas web que hagan spam, copien contenido de otras o se limiten simplemente a agregar contenido de baja calidad que recogen de la red, y también las que dispongan de una elevada densidad de palabras clave con el único objetivo de engañar a Google y posicionarse rápidamente en las primeras posiciones de las búsquedas. Además, Google se ha esforzado en mejorar el modo en que los usuarios podemos reportar sobre aquellos sitios web de baja calidad, haciéndonos partícipes de esta operación de limpieza general.

Por contra, Google va a premiar a aquellas web que produzcan contenido relevante, original, y que lo actualizan con más frecuencia. Aquellos que no cumplan al menos dos de estas tres premisas, no sería extraño que empezaran a experimentar un empeoramiento de su posicionamiento natural.

Las consecuencias de esta mejora en el algoritmo de Google (aparte de obligar a todas estas webs “damnificadas” a invertir en Adwords si quieren mantener su nivel de tráfico), son más profundas de lo que en principio pueda parecer.

A pesar de que no hay directrices claras, sí parece que Google está empezando a otorgar mucha importancia al impacto social del contenido publicado por las páginas web (ya hablamos de ello en “El Me Gusta y su influencia en el posicionamiento SEO”). Y es que una de las formas de ayudar a Google a filtrar el contenido de calidad puede ser monotorizar cómo ese contenido se comparte en las principales redes y servicios sociales (Facebook, Twitter, YouTube, WordPress, etc).

Y es que no deja de ser una solución lógica. Un enlace que se comparta numerosas veces por Facebook o Twitter, por ejemplo, es muy probable que contenga contenido fresco, relevante y valioso para los usuarios. Parece normal, pues, que Google esté cada vez más interesado en tener en cuenta el impacto social como un indicador fiable y un factor determinante en la composición de su algoritmo de búsquedas.

Sin embargo, tampoco me parece lógico que Google se detenga en ese punto. Al fin y al cabo, tampoco es un método infalible. Más pronto o más tarde alguien se inventaría un mecanismo para saltar esa muralla de contención y esquivar las trampas tendidas por el robot de Google.

Por eso creo que la consecuencia lógica de esta compleja evolución del buscador es que Google, antes o después, no sólo tome en consideración el impacto social en su vertiente cuantitativa, sino también en su vertiente cualitativa. Es decir, si realmente se pretende primar al contenido de calidad, aparte de controlar las veces que un determinado contenido se comparte, también habría que tener en cuenta quién lo comparte.

Pero claro, ¿Qué significaría esto? Google estaría dejando de otorgar la misma importancia a todos los usuarios. Unos pesarían más que otros. Lo que supondría un cambio de modelo. El paso de una democracia a una especie de oligarquía. Un nuevo ecosistema digital en donde el comportamiento de unos pocos (las “personalidades” más relevantes del campo en cuestión, se supone) puede llegar a inclina la balanza en la que se encuentran los resultados de las búsquedas de Google. O lo que es lo mismo, el poder. El todo.

¿Es esto posible? ¿Es esto deseable? No tengo ni idea, lo que sí sé es que cambiaría por completo el reparto de poderes dentro del mundo online, aumentando la concentración de poder de algunos usuarios “elegidos” por el algoritmo.

Por cierto, en caso de que todo esto acabase sucediendo, ¿cuánto estaría dispuesta a pagar una marca por identificar y “controlar” a esos “elegidos”?

31 ene 2011

Visita y entrevista a Carlos Sanchez de Vivar, responsable de negocio de Grupo Intercom



Por: Javier Buckenmeyer

Estuvimos con un conocido de Javi, Carlos, en las oficinas de Madrid del Grupo Intercom. Para los que no sepan, Grupo Intercom es una empresa que ha creado y que gestiona varias páginas webs, entre ellas Softonic, Emagister, Niumba, etc. Antes también eran dueños de Infojobs, pero creo que lo vendieron a Trader.

TweetDeck permitirá tweets con más de 140 caracteres

TweetDeck, uno de los clientes de escritorio más populares para Twitter, acaba de anunciar su nuevo producto Deck.ly. Se trata de una herramienta que permite escribir tweets con más de 140 caracteres, que es justamente el límite establecido por Twitter.

En los próximos días, esta característica se irá incorporando a las diferentes versiones de TweetDeck, con un límite actual de medio millón de caracteres por mensaje publicado.

Ahora bien, lo más curioso de todo esto y donde TweetDeck parece que sale a competir directamente con Twitter, es que todos los mensajes se podrán leer desde la web y se podrán realizar búsquedas.

Lógicamente que los tweets que superen los 140 caracteres se podrán leer también desde la aplicación. En ShinyShiny, consideran que esta nueva función es casi un servicio rival de Twitter o algo peor.

TweetDeck aprovechando la enorme comunidad generada en torno a Twitter, utilizaría los mensajes de más de 140 caracteres publicados por los usuarios en Twitter, para crear su propia plataforma social (algo así como una red de blogs), e incluso hay quienes hablan de que existe la posibilidad de monetizar esta iniciativa.

* Algunos ven con agrado este nuevo proyecto de TweetDeck y su “tocada de cojones” a Twitter, ya que este último al comenzar a desarrollar sus propias aplicaciones (como hizo con iPhone y Mac) le está pegando un buen revés al ecosistema de aplicaciones de terceros para Twitter.

Resta decir que el microblogging (o ya no tanto, si comienza a superar los 140 caracteres) está que arde y que la propuesta de TweetDeck: de utilizar contenido generado por los usuarios en otra plataforma, pero con publicidad propia debe provocarle alguna que otro exabrupto a la cúpula de Twitter.

10 Maneras De Mejorar Los Enlaces Internos En Tu Blog

Contar con una estrategia efectiva de enlaces internos para tu blog o sitio Web es importante por varias razones: 1) Ayuda a aumentar el número de páginas vistas y anima a los lectores a permanecer más tiempo en tu blog al proporcionarles atractivos enlaces hacia contenidos de su interés, y 2) puede ayudar a mejorar el ranking en los motores de búsqueda para tus post y tus páginas.

En este artículo te voy a revelar diez maneras fáciles para mejorar los enlaces internos dentro de tu blog. Pasa a la acción, ponlas en práctica y tendrás un blog más fácil de usar y al mismo tiempo te ayudará a mejorar el posicionamiento en los motores de búsqueda.

1. Utiliza un sitemap (mapa del sitio)
Los sitemaps no sólo sirven para ayudar a los visitantes a encontrar lo que están buscando, también son una forma fácil de aumentar la cantidad de enlaces internos a tus páginas más importantes. No estoy hablando de sitemaps XML creados para los motores de búsqueda (aunque también es recomendable contar con uno), sino más bien de un sitemap para tus lectores, con enlaces a todas tus entradas, o al menos a las más importantes.

Si eres usuario de WordPress puedes utilizar el plugin WP-Archives para crear automáticamente un mapa del sitio en tu blog. Este plugin crea una página con tu mapa del sitio con enlaces a todas tus entradas.

2. Crea un FAQ
Las páginas de preguntas frecuentes pueden ayudarte a conseguir enlaces internos a tus post mediante el uso de palabras y frases clave muy concretas. Podrías crear algunas preguntas frecuentes, que los lectores podrían tener, y darles respuestas en las entradas de tu blog. Plantea la cuestión en la página de FAQ, responde parcialmente a la pregunta y proporciona un enlace a un determinado post para obtener más información. Cuando plantees las preguntas, utiliza palabras clave que los lectores puedan utilizar al realizar una búsqueda, ya que esto te puede ayudar a mejorar el tráfico de los motores de búsqueda. También puedes utilizar palabras clave en el anchor text de los enlaces a tus entradas.

3. Enlazar a posts relacionados
Enlazar a posts con temas similares puede ayudar a los lectores a encontrar contenido adicional de interés. Esto puede mejorar el número de enlaces internos a las entradas de tu blog, algo que también es importante. Puedes crear manualmente los enlaces relacionados al final de tus posts, o puedes utilizar un plugin para que lo haga por ti. Si eres usuario de WordPress puedes descargar el plugin Related Entries.

4. Incluir enlaces a tus posts más populares en la barra lateral
Muchos blogs contienen enlaces a post específicos en la barra lateral. Enlazar a los que son los más populares es una buena manera de aumentar tus visitas, así como también para mejorar los enlaces internos. Esto puede hacerse manualmente, o bien utilizando un plugin. Hacerlo manualmente requerirá actualizaciones y cambios cada vez que desees cambiar las características de los nuevos post, mientras que si utilizas un plugin como MostWanted te ahorrarás todo ese trabajo.

5. Escribir una serie de post
Escribir una serie de post es una manera fácil de fomentar el número de enlaces internos, al pasar de un post a otro. Cuando la serie esté escrita y publicada cada post puede vincular a los demás. Si tienes un post demasiado largo, podrías considerar la posibilidad de hacer una serie. Ten cuidado de no hacer esto todo el tiempo, pues los lectores pueden empezar sospechar que los estás utilizando para obtener visitas.

6. Hacer un resumen semanal o mensual
Muchos bloggers terminan cada mes con un post que enlaza con algunas de las publicaciones recientes más populares del blog con una breve descripción de cada una de ellas. Esto, evidentemente, te da la oportunidad de añadir algunos enlaces internos, y sirve para ayudar a aquellos lectores que puedan haberse perdido algunos posts, así como para los nuevos suscriptores que no han tenido la oportunidad de leer algunos de tus mejores trabajos.

7. Colocar enlaces en tus páginas 404
Las páginas de error son frustrantes para los visitantes. Haz que tus páginas de error 404 sean más fáciles de usar y aprovecha esto para llevar tráfico adicional a algunos de los post más importantes. La mayoría de los temas de WordPress incluye un archivo 404.php que se puede editar para insertar el contenido que desees, incluyendo enlaces. Si estás utilizando un tema de WordPress que no incluye un archivo 404, consulta el WordPress Codex para obtener instrucciones.

8. Incluir enlaces en el pie de página
Dependiendo del tema que estés utilizando en tu blog, puede que estés desperdiciando el pie de página con contenidos de poco valor. Muchos de los visitantes que hayan leído hasta el final de tus posts o se hayan desplazado hacia abajo en busca de algo, pueden encontrar enlaces en el pie de página sin tener que desplazarse de nuevo a la parte superior. ¿Por qué no proporcionar a estos visitantes enlaces a otros blogs o a páginas de tu blog?

9. Utilizar los enlaces de texto a lo largo de los posts
Cuando estés escribiendo un post en tu blog mira la posibilidad de enlazar a alguna de las entradas más antiguas. Si tienes texto relacionado con el tema de un post más antiguo, enlázalo. A medida que vayas creando y publicando más artículos, te resultará más fácil de hacer. Una buena idea sería que revisaras tus posts más antiguos y ver si puedes enlazar a las entradas más recientes que no existían en el momento de publicarlas.

Puede ser especialmente beneficioso incluir enlaces en los primeros párrafos de un post, algunos bloggers han reportado mayores tasas de clics (click-through) a los lectores RSS con enlaces en los primeros párrafos del contenido.

10. MaxBlogPress Ninja Affiliate: plugin para WordPress
Los usuarios de WordPress pueden utilizar un plugin, MaxBlogPress Ninja Affiliate, para crear enlaces automáticamente a frases más utilizada a lo largo de los posts del blog. Este plugin está diseñado para utilizarlo con enlaces internos, así como con enlaces externos (especialmente los enlaces de afiliados).

28 ene 2011

SEO 2011: Especial cuidado con el cloaking

El cloaking, como muchos de vosotros sabréis, es una técnica de Black Hat SEO que consiste en mostrar contenido diferente a los buscadores respecto a los usuarios, con intención de manipular los resultados de búsqueda. Es una técnica que si Google la detecta, puede provocar ser penalizado fuertemente o directamente baneado del indice.

A finales del año pasado, Matt Cutts dejo caer que Google puede poner especial énfasis en la detección de cloaking durante 2011.

Recientemente, en el blog de Bruce Clay han publicado un buen artículo repasando las diferentes técnicas de cloaking identificadas, que creo que conviene revisar:

* IP delivery: mostrar contenido diferente basándose en la dirección IP de la petición.

* User agent: contenido diferente basándose en el agente del cliente, por ejemplo, mostrar para la misma URL un contenido diferente para GoogleBot respecto al mostrado para Mozilla y el resto de navegadores.

* Redirecciones por Javascript: redireccionar una página suponiendo (mal) que Google no va a ejecutar Javascript pero los usuarios sí.

* Meta-etiqueta refresh: redireccionar una página usando la meta-etiqueta refresh en el head de la misma.

* Redirecciones múltiples: suponiendo que Google bot no es capaz de seguir más allá de cinco.

* Frame: el uso de frames o iframes con intención de engañar, por ejemplo haciendo una redirección por Javascript dentro del frame.

* Redirecciones múltiples: suponiendo que Google bot no es capaz de seguir más allá de cinco.

* Etiqueta noscript: la etiqueta que ofrece la alternativa a un contenido generado Javascript, pudiendo ser usada de manera no lícita.

* Cabeceras HTTP: mostrar cabeceras diferentes a los buscadores con intención de engañarles.

* Páginas Doorway: crear una serie de páginas optimizadas para palabras clave concretas, que luego dirigen al usuario al sitio principal.

* Multi-variate testing: en principio es una técnica totalmente limpia para optimizar páginas de cara a la conversión, pero Google avisa que hay que tener cierto cuidado.

* Redirecciones 301 de dominios antiguos: una técnica bastante usada en el pasado, redirecciones hacia tu sitio un dominio antiguo no relacionado.

* Link cloaking: enviar al usuario a una dirección diferente a la clickada sobre el enlace.

* Link hijacking: modificar el anchor text o atributos del enlace, como puede ser el nofollow, con intención de engañar.

* Texto oculto: la más clásica técnica de cloaking, texto con fuente de tamaño cero, mismo color que el fondo y similares.

Para terminar, tened en cuenta que hay ciertas cosas que pueden encajar con el cloaking pero que no suponen ningún problema por no tener fines malévolos.. como por ejemplo: el geo-targeting, redirección a la versión para móviles, página de verificación de edad, balanceo de carga, las páginas personalizadas para los usuarios logeados y similares.

Google comienza a filtrar términos relacionados con las descargas

A comienzos del pasado mes de diciembre Google anunció que iba a comenzar a aplicar una serie de filtros relacionados con la piratería en su buscador y hoy ya podemos ver los efectos de dicha modificación, que se ha traducido en la desaparición de términos como “Bittorrent”, “Megaupload”, “Rapidshare” entre otros.

No se ha eliminado ningún resultado del buscador y por el momento tan solo se trata de ocultar una serie de términos que pueden poner a Google en punto de mira por facilitar la descarga de contenidos. Estas palabras han sido filtradas en las sugerencias de búsqueda y en la búsqueda instantánea, que ahora han dejado de ofrecernos resultados si escribimos algunos de los ejemplos que podemos ver en la imagen realizada por TorrentFreak. Esta es la primera vez que Google hace este tipo de filtrado a términos relacionadas con la piratería, aunque no son los primeros filtros aplicados de este modo ya que ya son varias las palabras filtradas con estos métodos, sobre todo relacionados con la pornografía.

Uno de los perjudicados es la empresa BitTorrent Inc, que está detrás de este conocido protocolo peer to peer. Simon Morris ha indicado que entiende y respeta las técnicas de Google para determinar los algoritmo de búsqueda adecuados para sus usuarios, sin embargo señalar que

De lo que Google no se da cuenta es que nuestra tecnología se utiliza para muchos propósitos que proporcionan un valor significativo a la industria tecnológica, empresas, artistas y consumidores en general.

Rapidshare es otro de los afectados y se muestran descontentos con la decisión tomada por Google, cediendo a la presión de las organizaciones de la industria del copyright. Aunque también aceptan la decisión del buscador de tomar este tipo de decisiones su descontento viene porque los intereses de sus usuarios se verán afectados.

Cada día cientos de miles de usuarios confían en nuestros servicios para sus intereses perfectamente legítimos. Es por esto que Google, evidentemente, ha ido demasiado lejos en su censura de los resultados de su algoritmo de sugerencias de búsqueda. El motor de búsqueda debe reflejar los intereses de los usuarios y no de Google o de cualquier otra persona.

Esta son las palabras de un representante de Rapdishare a TorrentFreak sobre este filtrado aplicado por Google.

Estos filtrados forman parte del paquete que anunció la empresa del buscador el pasado mes de diciembre, como os comentaba al principio, y desde luego, no creo que se trate de algo personal contra cualquier tipo de empresa o tecnología, creo que tan solo se tratan de una serie de medidas tomadas en su propia defensa para quitarse presión, evitando posibles demandas en el futuro. La gran pregunta ahora es si en Google serán capaces de llegar al siguiente paso eliminando los resultados de su buscador. Si la respuesta es afirmativa habrá que ver que hace Google, en caso de eliminar resultados, seguro que le caerán gran cantidad de quejas de los usuarios.

Esta decisión de filtrar estos términos de búsqueda es algo paradójica, sobre todo teniendo en cuenta que hace tan solo unos días Google se oponía a eliminar resultados de búsqueda al considerar que sería censura.

Cómo crear Campañas de Marketing en Twitter y Facebook

Que las redes sociales se han transformado en las plataformas destinadas al mundo de los negocios online y que sin contar con presencia activa en ellas es prácticamente imposible lograr la reputación online necesaria para contar con una marca consolidada, es una realidad imposible de evadir.

Los análisis y proyecciones para este 2011 que acaba de comenzar, sitúan la presencia activa de las marcas en las redes sociales como punto de partida imprescindible para lograr el éxito en cualquier negocio online.

Sin embargo aún existe confusión entre los beneficios de las principales redes sociales en relación a las distintas estrategias de marketing adoptadas, confusión normal por otra parte si tenemos en cuenta que la eclosión de los Social Media es relativamente reciente y que su crecimiento ha sido exponencial especialmente, desde el pasado 2009.

Si nos centramos en las diferencias técnicas de las redes sociales por excelencia: Facebook y Twitter, podemos determinar que Facebook es una red social donde los usuarios comparten sus necesidades e intereses tanto a nivel profesional como personal, por lo que se consolida como la red social a nivel mundial mientras que Twitter, es más un buscador en tiempo real y una plataforma de transmisión viral de información.

Facebook funciona de forma equivalente a un lugar de encuentro entre personas con necesidades e intereses afines, mientras que Twitter, pretende ser la plataforma donde se comparta información y se distribuyan noticias en tiempo real.

Adicionalmente, Twitter funciona como una herramienta vital para el SEO ya que las visitas que se logran a través de los enlaces son exponenciales.

En relación a las campañas de marketing, las diferencias entre ambas plataformas parten del número de usuarios que tienen registrados cada una de ellas, siendo considerablemente más elevada la cuota de mercado abarcada por Facebook.

Facebook es más personal mientras Twitter es más profesional. En Facebook la seguridad y privacidad sigue siendo un tema no menor a debate, mientras que en Twitter el valor agregado es mayor cuanta mas gente acceda a cada Tweet.

Aquí nos encontramos con otra diferencia fundamental, mientras que en Facebook el derecho a la intimidad y la identidad de las personas es predominante, en Twitter la vocación es de servicio público.

Para elaborar una estrategia de marketing específica hay que tener en cuenta la forma en la que se relacionan los usuarios de cada una de las redes sociales con la marca.

Twitter promueve negocios de consolidación de marcas y aceleración de la decisión de compra, mientras que Facebook es más eficaz para identificar necesidades y en base a ellas establecer variaciones a las estrategias de marketing, dotándolas del dinamismo que subyace tras las necesidades identificadas.

Twitter es más influyente mientras que Facebook es más determinante para las marcas.

Ahora bien, para elegir la estrategia de marketing adecuada y la plataforma más indicada para nuestro negocio, es fundamental evaluar una serie de variables determinantes:

- Usuarios y tráfico, en este ítem Facebook sale aventajado específicamente en los tiempos de permanencia en la red social

- Consumidores, Facebook también cuenta con ventaja en esta categoría ya que la posibilidad de compartir información detallada resulta de mayor interés para los usuarios de un marca, aunque Twitter no pierde terreno ya que cuenta con la ventaja de sus 140 caracteres que acaparan la atención de cualquier usuario.

- Centros de negocios, aquí Twitter lleva la delantera al consolidarse como la plataforma idónea para estrategias de marketing viral cuya efectividad radica en el boca a boca.

En relación al estudio de la competencia y la determinación del valor agregado Twitter cuenta con ventaja ya que permite monitorear en tiempo real lo que se dice de la marca y/o los productos ofrecidos.

La posibilidad de construir comunidades en torno a la marca es mucho más completa y directa por lo que los beneficios de una campaña de marketing viral son mucho más completos en Facebook que en Twitter.

Si hablamos de efectos beneficiosos de una estrategia de marketing analizados externamente, si bien Twitter era superior a Facebook, debido a su mayor presencia en las búsquedas de Google, ambas redes sociales se encuentran equiparadas en la actualidad tras la inclusión de búsquedas relacionadas y el aumento de su presencia en los resultados arrojados por Google.

Para finalizar, la comunicación directa en red es más efectiva en Facebook gracias a su mensajería instantánea.

Sin embargo, el análisis de las variables indican que 2011 será un año de integración, en el que la consolidación de las marcas en Internet deberá realizarse logrando una presencia activa y equilibrada en ambas redes sociales adaptando sus estrategias de marketing a los criterios que rigen la operativa de cada una de las utilidades de ambas.

ARCHIVO DEL BLOG