Como ganar dinero con su blog, Servidores blog, Plantillas para bajar, Contadores de visitas, Adsense, Estadísticas y mucho más.
-
-

9 oct. 2010

Adsense: Diagnóstico y tratamiento de las fluctuaciones en los ingresos



"¿Por qué obtengo más ingresos con algunos anuncios y menos con otros? ¿Por qué mis ingresos de AdSense para contenido varían diaria o semanalmente?"

Si alguna vez te has planteado preguntas de este tipo, no eres el único. A menudo llegan a nuestros oídos comentarios de los editores que no están seguros del modo en que se calculan sus ingresos y desconocen por qué éstos fluctúan. En nuestro afán por ser más transparentes para nuestros editores, hemos emprendido una serie formativa estructurada en dos partes y dedicada a estas cuestiones. Con la ayuda de Hal Varian, economista jefe de Google, explicaremos cómo los anuncios se orientan a tus páginas, cómo se establecen los precios en función de la subasta de anuncios y cómo todo esto se traduce en los ingresos que recibes.

Hoy Hal hablará de la subasta de anuncios en AdSense para contenido y explicará qué es y cómo funciona. Al igual que una subasta tradicional, los anunciantes hacen una oferta en nuestra subasta de anuncios para que los anuncios aparezcan en tus páginas. El número y el precio de los anuncios de la subasta varían de un momento a otro en función del importe que los anunciantes estén dispuestos a pagar y del modo en que elaboren sus campañas publicitarias (por eso hablamos de una subasta "dinámica", pues estos factores pueden incidir en el volumen de tus ingresos).

Si quieres obtener más información sobre la subasta de anuncios y cómo se calculan los precios concretos, echa un vistazo al vídeo de arriba.

Entonces, ¿qué puedes hacer como editor para asegurarte de que estás obteniendo los ingresos máximos? A continuación te indicamos algunos consejos de eficacia probada para aumentar tu competitividad entre los anunciantes en la subasta de anuncios de tus páginas.

* Sigue creando sitios de gran calidad con contenido original para atraer a más anunciantes y utiliza Google Analytics para ver qué contenido está generando ingresos.
* Intenta incorporar a tus páginas formatos populares para los anunciantes, como el rectángulo mediano de 300x250.
* Convierte tus criterios de seguimiento en ubicaciones de anuncios orientables que ayuden a los anunciantes a identificar y orientar ubicaciones preferentes de tus páginas.
* Prueba a buscar las mejores ubicaciones de tus anuncios y asegúrate de que tus diseños no generan clics accidentales.
* Ayuda a los anunciantes a encontrar tus sitios promocionándolos en Ad Planner. Puedes añadir descripciones y categorías que describan tus contenidos, lo que ayudará a incrementar la visibilidad de tus bloques de anuncios entre los anunciantes interesados.

Para conocer los cambios de tus ingresos, te recomendamos también que consultes la serie de entradas de blog estructurada en dos partes "Diagnóstico y tratamiento de las fluctuaciones en los ingresos".

Eso es todo por hoy. En la segunda parte de nuestra serie formativa, abordaremos el modo en que el sistema inteligente de establecimiento de precios afecta a las ofertas de los anunciantes en la subasta de anuncios y aclararemos algunos mitos sobre su funcionamiento.

Publicado por Arlene Lee - Equipo del blog Dentro de AdSense

Eliminar el Spam es bueno para el posicionamiento web

Una de las tácticas más frecuentes que usan los spammers al escribir comentarios en blogs, es dejar mensajes de naturaleza ambigua. Ya no hay frases cortas y fácilmente identificables (como “buen post” o “buen artículo”), sino algunas un poco más elaboradas, del tipo “¿De donde bajaste tu plantilla?” o “Parece que el RSS no funciona bien“. Este tipo de mensajes tiene más probabilidades de engañar a un blogger y así dejar un enlace desde tu blog a otro sitio.

El punto es que este tipo de mensajes, aunque parezcan inofensivos, por lo general incluyen enlaces a sitios infectados con malware, de venta de productos de dudosa reputación, o que buscan mejorar el posicionamiento de un sitio web con técnicas de Black Hat. Cuando un sitio web es medianamente popular, revisar manualmente cada link de cada comentario toma tiempo, sobre todo en tiempos en que mucha gente tiene un blog, fotolog, asdflog. Además resulta fácil utilizar un servicio de acortamiento de URLs para enmascarar el vínculo, por lo que no se ve la URL del enlace a simple vista y hay que hacer clic en cada una de ellas, con el gasto de tiempo que involucra y el riesgo a la seguridad de tu equipo.

Sin embargo, a pesar del daño potencial que un comentario de spam pueda tener sobre las personas que visitan el enlace malicioso, el principal problema es para el dueño del sitio web. Cada vez que estos comentarios se publican, tu sitio web es el que sufre.

Estás dañando el posicionamiento de tu sitio

Los sitios web de los spammers pueden parecer inofensivos. Pero los métodos de posicionamiento que utilizan para promocionarlos no lo son. Los Black Hat Seos pasan el tiempo obteniendo enlaces desde cualquier sitio que les sea posible, incluyendo los peores sitios de Internet. Al aprobar los comentarios de spam y sus enlaces, le estás diciendo a Google y Bing que los enlaces que salen de tu web son de muy mala calidad.

Es verdad que Google tratará de no penalizar a un sitio que inadvertidamente enlaza a un mal vecindario (sitios que coparten servidor con web penalizadas), pero incluso si no lo hiciera nunca (y a veces lo hace, eso es un hecho), mientras más enlaces salientes tenga un sitio, menor es el valor de cada uno de ellos, y además estás ayudando a validar el sitio web del spammer como relevante cuando en realidad no lo es. En algunos casos puedes estar incluso ayudando al spammer a posicionar su sitio web por encima del tuyo para las palabras claves comunes.

Atraes más spammers

Los spammers menos hábiles buscan blogs que otros spammers hayan conseguido atacar con éxito, porque saben que son blancos fáciles. Algunos spammers venden listas de este tipo de sitios para ahorrar a otros el trabajo de encontrarlos. Los spammers profesionales guardan listas de las víctimas anteriores, porque saben que hay muchas posibilidades de poder seguir llenando esos sitios con sus mensajes. Al permitir que tu sitio web tenga incluso un único comentario de spam, estás dando una señal a los spammers indicando que tu blog es un sitio web vulnerable. Los bloggers experimentados se habrán dado cuenta que a veces dejan pasar un único comentario de spam, y que incluso después de borrarlo el spam llega con mucha más fuerza.

WordPress y otras plataformas de publicación de contenido tienen la posibilidad de permitir que los usuarios que tengan al menos un comentario aprobado, puedan saltarse automáticamente la moderación la siguiente vez que dejen un mensaje. Los spammers saben esto, y lo que hacen es manualmente escribir un buen comentario (relativo al artículo, sin enlaces salientes), y una vez que sea aprobado, usarán sus programas para mantenerse atacando al sitio.

Estás dañando tu reputación

Puede que nunca hagas clic en los enlaces de los comentarios, pero algunos de tus lectores lo harán. Y algunos de esos links llevarán a sitios dañinos, ofensivos o llenos de malware. Peor aún, algunos spammers están usando la técnica de dejar unos pocos enlaces en comentarios de un sitio inocente y spammear masivamente hacia ese sitio, consiguiendo aumentar el valor de los enlaces salientes pero a costa de arriesgar al sitio inocente a una penalización en los buscadores y en los filtros antispam. Si aceptas comentarios con spam, pronto empezarás a recibir quejas de los dueños de otros sitios web que están siendo atacados usando tu URL, es decir, pierdes tu reputación por alguien que está ganando dinero a costa tuya.

Via: reparaciondepc

8 oct. 2010

¿Black SEO? saca el máximo partido al error 404

Ya habíamos hablado del error 404 y de como personalizarlo pero ¿se podría sacar un mayor provecho del error 404? claro que sí.

Hasta ahora, si alguien introducía una URL que no existía en nuestra página o se equivocaba al teclear alguna letra era redireccionado hacia una página en la que se le informaba de dicho error y se le daba la posibilidad de buscar una alternativa.

Lo que se podría hacer es eliminar este paso manual y que de forma automática, una vez redireccionado a la página de error 404 con la URL que había tecleado el usuario, redireccionarle de nuevo con un 200 OK (ojo, olvidar las redirecciones 301 y 302) a una página de búsqueda con dicha URL (extraemos las palabras de la cadena) y desde la cual podríamos mostrar al usuario información relevante a su búsqueda.

De esta forma transformaríamos cualquier error 404 en una página con contenido útil tanto para usuarios como para buscadores.

La cuestión sería ¿como tratarán los buscadores una redirección 200 después de un error 404? lo más lógico sería ignorarlo y no posicionar dicha página pero.. ¿funciona así? sería un curioso experimento para probar.

6 oct. 2010

Blogging móvil: BlogWriter

BlogWriter es una aplicación de VirtueSoft que permite postear en sitios de blogger.com, MSN live spaces, wordpress.com, blogs de wordpress con host propio y blogs que utilizan MetaWeblog con un iPhone, un iPod Touch o un iPad.

La versión gratuita sólo brinda la posibilidad de subir texto y editar posts anteriores. Por otro lado, la versión paga -que cuesta U$S 1.99 en el App Store- también permite subir y geolocalizar fotografías.

Además, se puede hacer seguimiento de Feeds en ambas aplicaciones.

Google (también) compra tráfico en Facebook

Alguna vez discutimos el tema de la compra de tráfico por medio de campañas pago por clic (PPC) en Facebook vs. Google.

Que si una o la otra es “mejor” o más efectiva, dependerá por supuesto del manejo que hagas de la misma, tu target, etc.

Además, también hemos considerado que las campañas pagas son una opción (Plan B) en algunos casos, e incluso que está demostrado que los sitios Web posicionados orgánicamente en un TOP10 aumentan significativamente la posibilidad de tráfico si realizan campañas de anuncios PPC.

El tema es que recientemente he notado algunos anuncios del mismo Google dentro de Facebook… y sí, la verdad me sorprendió un poco, pues quizás ellos mismos hayan comprobado –también- su efectividad o relación “costo-beneficio” al anunciarse hasta en (su competidor) Facebook…

Via: seocharlie

SEO y Arquitectura de la Información

Una de las cosas más interesantes del SEO es que hay que pensar como piensan las máquinas. Dedicar tiempo simplemente a posicionar cuatro conceptos no sirve de nada si tu sitio no aumenta el tráfico de llegada y, una vez dentro, lo conviertes. Esto se resumen en que el SEO ya no sirve por sí mismo si no va acompañado de otras cosas alrededor.

Cuando en Kisslab comenzamos la consultoría de un proyecto el primer paso siempre es el de las buenas prácticas en buscadores, la base para que un proyecto no tenga problemas en un futuro y, que conste, que para mi eso no es SEO, es simplemente hacer un proyecto de Internet bien.

El siguiente paso que planteamos es el de Arquitectura de la Información, aunque con una breve diferencia de la clásica, y es que está enfocado al SEO. me gusta mucho el artículo de la Wikipedia sobre el tema ya que creo que refleja bastante bien lo que es la arquitectura en general, aunque le falte el puntillo SEO que os comentaba… y eso es lo que me gustaría tocar ligeramente.

Una de las definiciones que tiene es:

El arte y la ciencia de organizar y rotular sitios web, intranets, comunidades en línea y software para promover la usabilidad y la ubicabilidad (la característica de ser encontrado a través de las búsquedas en Internet).

Es decir, la Arquitectura de la Información es una de las bases del SEO, ya que promueve la “ubicabilidad” y la “usabilidad” (que esta última acaba llevando a que el usuario pase más tiempo en el sitio y acabe convirtiéndose mejor).

Entre las tareas del arquitecto de la información encontramos:

  • El objeto, propósito y fines del sistema de información o sitio.
  • La definición del público objetivo y los estudios de la audiencia.
  • La realización de análisis competitivos.
  • El diseño de la interacción.
  • El diseño de la navegación, esquemas de organización y facetación de los contenidos
  • El etiquetado o rotulado de los contenidos para acceder a la información.
  • La planificación, gestión y desarrollo de contenidos.
  • La facilidad de búsqueda y el diseño de la interfaz de búsqueda.
  • La usabilidad.
  • La accesibilidad.
  • El feedback del resultado y los procesos de reingeniería del sitio.

Muchos de estos procesos suenan bastante a tareas que hay que hacer también para SEO, como la definición del público objetivo (y por tanto su manera de buscar), la navegación y organización (o sea, la indexabilidad que luego tendrán los robots), el etiquetado de los contenidos (o qué código HTML utilizar en todo momento), el desarrollo de los contenidos (para aumentar la calidad de las posibles consultas de búsqueda)…

Una de las cosas más interesantes de cara a organizar la información es lo que la propia estructura de la URL nos da. No podemos tener contenidos de cualquier tipo mezclados en la carpeta raíz de nuestro sitio, de la misma forma que no podemos tener un árbol de categorías con contenidos finales muy alejados del tronco… mi opinión personal y la experiencia en proyectos me dice que es mejor agrupar los contenidos según tipos de búsqueda y clustering (aplicado a los contenidos, no a la informática en general).

De esta forma hemos de tener presente cosas como que la página principal es un elemento a tratar por separado, otro podría ser la categorización por geolocalización, otro pueden ser los contenidos, otro las tipologías… esto generaría un tipo de URL distinta en cada caso, y de esa forma los motores deberían ser capaces de organizar y entender la información mucho mejor.

Aun así, la arquitectura de la información va a depender de cada sitio web, y aunque se puede generalizar y se sabe que hay cosas que, por lo general, funcionan en cualquier sitio web, es mejor hacer un análisis de la escalabilidad del sitio, también pensando en un futuro aumento de contenidos, cambio de tecnología, etc…

Via: javiercasares

4 oct. 2010

Porque un blog puede valer millones

Estás un día aburrido en casa, tienes ganas de compartir una idea y, para llegar a más gente, te creas un blog. Es gratis, es rápido, es fácil y no hay nadie que te diga lo que tienes que escribir o lo que puedes colgar. Pero hay otros que se lo toman más en serio, porque desde hace unos años, los blogs también son un negocio. Que se lo digan al dueño de TechCrunch, que ha vendido el suyo por más de 25 millones de dólares.

En su caso, AOL ha sido el gigante que se ha interesado. El grupo de comunicación, uno de los 5 más grandes de Estados Unidos, ha comprado el blog a Michael Arrington por una cantidad no reconocida pero que estaría entre los 25 y los 60 millones de dólares. Lo que empezó como una barbacoa en cada de Arrington en septiembre de 2005 se ha convertido en uno de los medios de comunicación con más influencia sobre los compradores de tecnología, una industria que deja elevados beneficios y que tiene un poder creciente en la sociedad como reconocía recientemente Vanity Fair.

La expansión de los blogs durante los últimos años es un hecho que los medios tradiciones no pueden pasar inadvertidos. La conversión al formato digital que algunos como el New York Times ya tienen clara abrirá una nueva batalla por unos espacios que la blogosfera ha sabido ocupar. Su estilo directo, enfocado, apasionado, rápido e incisivo son una garantía a la hora de llegar a lectores que saben lo que quieren leer.

Este es el resumen gráfico de cómo Michael Arrigton sacó adelante TechCrunch construido por sus compañeros en Gigaom:

Goo.gl acortador de URLs de Google

El acortador de URLs de Google, Goo.gl (http://goo.gl/) por fin está abierto al público. Con una cuenta de Google, podemos acceder a la página de perfil que nos permitirá controlar nuestras urls y sus estadísticas. Esto ya lo hacen otros servicios de urls cortas, pero cuando se trata de Google la cosa se pone interesante. En cuanto integren este servicio con Analytics, será algo muy útil.

También podemos crear urls cortas sin necesidad de entrar en ninguna cuenta.

¿Por qué lanza Google su propio acortador de urls?

Oficialmente porque necesitaba un producto seguro, que no desapareciera y que hiciera bien las cosas, con redirecciones 301, rápido, estable y seguro.

De cara al usuario Google siempre es una garantía, y si además pone a nuestra disposición todas las estadísitcas gratuítamente, es inmejorable. Probablemente, Google habrá pensado que este tipo de urls no son una moda y que permanecerán, y no quieren perder todo el tema de estadísticas que es de lo que viven principalmente.

Es decir, que hacen lo mismo que otras herramientas de este tipo, como Bit.ly, pero gratis y ofreciendo seguridad. A cambio, las estadísticas de nuestras urls. Por otro lado, también aprovechan para promocionar su navegador Chrome, que ya tiene extensiones preparadas para el uso de esta herramienta.

De momento no ofrece opciones de elegir tipos de urls, o de configurarlas un poco, pero sus urls son permanentes y únicas.

Conocer el hosting de una página web

Muchas veces queremos conocer rápidamente el hosting que utiliza algún blog o página web importante, especialmente si se trata de un sitio de calidad o de la competencia. Ya que se trata de un dato que puede interesarnos.

Es por eso que hoy les comento sobre una herramienta web llamada WhoisHostingThis, que nos permite conocer el hosting de cualquier dominio. Su uso es muy sencillo. ¡Ya verás!

Simplemente basta con introducir la URL, cuyo hosting deseamos saber y seleccionar enter para que nos arroje los resultados.


1 oct. 2010

SEO Quake: Extensión SEO para Firefox

SEO Quake es una extensión SEO para Firefox con la cual podemos obtener información interesante de las páginas que estamos visitando.

Con SEO Quake, los webmasters pueden investigar acerca de importantes parámetros a tener en cuenta para optimizar sus páginas web. El plugin ha sido descargado más de un millón de veces y tiene una muy buena puntuación (4 estrellas).

Las funcionalidades de esta barra para Firefox nos permitiría por ejemplo ver las posiciones en los resultados de búsqueda de determinadas páginas, así como también mostrarnos la posición de los resultados al buscar en Google sobre determinadas palabras claves.

Sin duda se trata de una alternativa muy buena frente a otras herramientas que hacen lo mismo, aunque hay gente que se queja que no funciona muy bien en Mac.

Estudio: La mayoría de los twitteos no los responde nadie

Un nuevo y chocante resultado apareció hoy en un estudio, que viene a sumarse a otra lista de estudios chocantes: la mayoría de los mensajes que la gente pone en Twitter no son respondidos por nadie. Los investigadores de lo obvio la compañía Sysomos analizaron 1.200 millones de tweets en dos meses, encontrando que el 71% no produce ninguna reacción (ni respuesta, ni retwitteo).

Del porcentaje que sí recibe respuesta, en el 85% de los casos sólo es una respuesta, no muchas. En tanto apenas 1,53% de los tweets se convierten en conversaciones de más de tres niveles (o sea que hay una respuesta a la respuesta a la respuesta – etc).

¿Significa que nadie está leyendo lo que pones en Twitter? Quizás, aunque no necesariamente. El que no te respondan no significa que no te hayan leído, pero lo cierto es que estas cifras más que nada apoyan la idea de que Twitter está lleno de blabla sin sentido.

Sysomos también descubrió que lograr que te retwitteen es condenadamente difícil. Sólo un 6% de todos los tweets producen un RT, así que si estás triste porque nadie te retwittea, no te sientas solo porque estás con la mayoría de la gente.

El estudio continúa señalando que el 96,9% de las respuestas y el 92,4% de los retweets ocurren durante la primera hora después de que se lanzó el mensaje.

El futuro de la publicidad online según Google

Durante un encuentro de empresas de tecnología realizado en los Estados Unidos, Google reveló como será el futuro de la publicidad online, según su visión, claro está.

A continuación, hemos sintetizado algunos datos que pueden ser interesantes:

  • Las inversiones se enfocarán en el video online. Se estima que para el 2015, el 50% de los anuncios publicitarios se basarán en ese formato digital.
  • El marketing móvil tendrá un papel protagonista, ya que los teléfonos inteligentes y smartphones serán el medio más utilizado por los usuarios y consumidores para interactuar con las marcas y anunciantes digitales.
  • El 50% de las campañas publicitarias a través de internet incluirán anuncios en formato video bajo la métrica cost-per-view, es decir coste por visionado, lo que significa que el usuario podrá elegir ver o no el anuncio, y el anunciante sólo pagará por el tiempo de visionado de los usuarios.
  • Con las nuevas tecnologías de medición, en cinco años, habrá no sólo uno, sino cinco indicadores que los anunciantes considerarán más importante que el tradicional y simple clic.
  • En 2015, el 75% de los anuncios online serán sociales y podrán ser compartidos través de docenas de formatos, sitios y comunidades sociales.
  • El gasto de los anunciantes continuará creciendo.

Una visión muy interesante y que nos sirve para adelantarnos a las tendencias que, según Google, dominarán la publicidad online.

Via: chicaseo

ARCHIVO DEL BLOG