11 oct 2010
¿Puede Google Instant hacer inútiles las técnicas SEO para posicionar contenidos
- "Los trucos de especialistas en SEO dejarán de servir", asegura.
- Otros, por el contrario, creen que Instant favorecerá a los mejores en este tipo de técnicas de posicionamiento.
- Google Instant se queda en blanco si buscas... "Búsquedas"
Google Instant podría hacer "irrelevantes" las técnicas que hacen que un contenido web tenga un mejor posicionamiento en el gran buscador de Google, lo que se conoce como técnicas SEO (Search engine optimization), según afirmó Steve Rubel, director de estadísticas de la agencia de relaciones públicas Edelman, en palabras recogidas esta semana por Portaltic.
Este experto opina que con las búsquedas instantáneas de Google se ha conseguido que, nunca más, dos personas vean los mismos resultados de búsqueda: "Google Instant significa que nadie verá nunca más la misma web, por lo que la optimización será prácticamente imposible. La retroalimentación en tiempo real va a cambiar y a personalizar los comportamientos de búsqueda", afirmó en su blog personal.
Google Instant "hará que los trucos que usaban los especialistas en SEO, para un mejor posicionamiento de sus contenidos en buscadores, dejen de servir", cuenta. Los resultados de búsqueda serán "más específicos".
Por el contrario, hay quienes piensan que Google Instant provocará lo contrario, que los dedicados a estas técnicas generen nuevas que hagan que sus contenidos estén mejor posicionados. También hay quienes opinan que, en base a esto y que se estima que con Google Instant los mejores posicionados tendrán aún más ventajas para ser vistos, las búsquedas instantáneas sólo provocarán que el mejor SEO consiga, aún, mejores resultados.
Via: blog.sysmaya
9 oct 2010
Adsense: Diagnóstico y tratamiento de las fluctuaciones en los ingresos
"¿Por qué obtengo más ingresos con algunos anuncios y menos con otros? ¿Por qué mis ingresos de AdSense para contenido varían diaria o semanalmente?"
Entonces, ¿qué puedes hacer como editor para asegurarte de que estás obteniendo los ingresos máximos? A continuación te indicamos algunos consejos de eficacia probada para aumentar tu competitividad entre los anunciantes en la subasta de anuncios de tus páginas.
* Sigue creando sitios de gran calidad con contenido original para atraer a más anunciantes y utiliza Google Analytics para ver qué contenido está generando ingresos.
* Intenta incorporar a tus páginas formatos populares para los anunciantes, como el rectángulo mediano de 300x250.
* Convierte tus criterios de seguimiento en ubicaciones de anuncios orientables que ayuden a los anunciantes a identificar y orientar ubicaciones preferentes de tus páginas.
* Prueba a buscar las mejores ubicaciones de tus anuncios y asegúrate de que tus diseños no generan clics accidentales.
* Ayuda a los anunciantes a encontrar tus sitios promocionándolos en Ad Planner. Puedes añadir descripciones y categorías que describan tus contenidos, lo que ayudará a incrementar la visibilidad de tus bloques de anuncios entre los anunciantes interesados.
Para conocer los cambios de tus ingresos, te recomendamos también que consultes la serie de entradas de blog estructurada en dos partes "Diagnóstico y tratamiento de las fluctuaciones en los ingresos".
Eso es todo por hoy. En la segunda parte de nuestra serie formativa, abordaremos el modo en que el sistema inteligente de establecimiento de precios afecta a las ofertas de los anunciantes en la subasta de anuncios y aclararemos algunos mitos sobre su funcionamiento.
Publicado por Arlene Lee - Equipo del blog Dentro de AdSense
Eliminar el Spam es bueno para el posicionamiento web
El punto es que este tipo de mensajes, aunque parezcan inofensivos, por lo general incluyen enlaces a sitios infectados con malware, de venta de productos de dudosa reputación, o que buscan mejorar el posicionamiento de un sitio web con técnicas de Black Hat. Cuando un sitio web es medianamente popular, revisar manualmente cada link de cada comentario toma tiempo, sobre todo en tiempos en que mucha gente tiene un blog, fotolog, asdflog. Además resulta fácil utilizar un servicio de acortamiento de URLs para enmascarar el vínculo, por lo que no se ve la URL del enlace a simple vista y hay que hacer clic en cada una de ellas, con el gasto de tiempo que involucra y el riesgo a la seguridad de tu equipo.
Sin embargo, a pesar del daño potencial que un comentario de spam pueda tener sobre las personas que visitan el enlace malicioso, el principal problema es para el dueño del sitio web. Cada vez que estos comentarios se publican, tu sitio web es el que sufre.
Estás dañando el posicionamiento de tu sitio
Los sitios web de los spammers pueden parecer inofensivos. Pero los métodos de posicionamiento que utilizan para promocionarlos no lo son. Los Black Hat Seos pasan el tiempo obteniendo enlaces desde cualquier sitio que les sea posible, incluyendo los peores sitios de Internet. Al aprobar los comentarios de spam y sus enlaces, le estás diciendo a Google y Bing que los enlaces que salen de tu web son de muy mala calidad.
Es verdad que Google tratará de no penalizar a un sitio que inadvertidamente enlaza a un mal vecindario (sitios que coparten servidor con web penalizadas), pero incluso si no lo hiciera nunca (y a veces lo hace, eso es un hecho), mientras más enlaces salientes tenga un sitio, menor es el valor de cada uno de ellos, y además estás ayudando a validar el sitio web del spammer como relevante cuando en realidad no lo es. En algunos casos puedes estar incluso ayudando al spammer a posicionar su sitio web por encima del tuyo para las palabras claves comunes.
Atraes más spammers
Los spammers menos hábiles buscan blogs que otros spammers hayan conseguido atacar con éxito, porque saben que son blancos fáciles. Algunos spammers venden listas de este tipo de sitios para ahorrar a otros el trabajo de encontrarlos. Los spammers profesionales guardan listas de las víctimas anteriores, porque saben que hay muchas posibilidades de poder seguir llenando esos sitios con sus mensajes. Al permitir que tu sitio web tenga incluso un único comentario de spam, estás dando una señal a los spammers indicando que tu blog es un sitio web vulnerable. Los bloggers experimentados se habrán dado cuenta que a veces dejan pasar un único comentario de spam, y que incluso después de borrarlo el spam llega con mucha más fuerza.
WordPress y otras plataformas de publicación de contenido tienen la posibilidad de permitir que los usuarios que tengan al menos un comentario aprobado, puedan saltarse automáticamente la moderación la siguiente vez que dejen un mensaje. Los spammers saben esto, y lo que hacen es manualmente escribir un buen comentario (relativo al artículo, sin enlaces salientes), y una vez que sea aprobado, usarán sus programas para mantenerse atacando al sitio.
Estás dañando tu reputación
Puede que nunca hagas clic en los enlaces de los comentarios, pero algunos de tus lectores lo harán. Y algunos de esos links llevarán a sitios dañinos, ofensivos o llenos de malware. Peor aún, algunos spammers están usando la técnica de dejar unos pocos enlaces en comentarios de un sitio inocente y spammear masivamente hacia ese sitio, consiguiendo aumentar el valor de los enlaces salientes pero a costa de arriesgar al sitio inocente a una penalización en los buscadores y en los filtros antispam. Si aceptas comentarios con spam, pronto empezarás a recibir quejas de los dueños de otros sitios web que están siendo atacados usando tu URL, es decir, pierdes tu reputación por alguien que está ganando dinero a costa tuya.
Via: reparaciondepc
8 oct 2010
¿Black SEO? saca el máximo partido al error 404
Hasta ahora, si alguien introducía una URL que no existía en nuestra página o se equivocaba al teclear alguna letra era redireccionado hacia una página en la que se le informaba de dicho error y se le daba la posibilidad de buscar una alternativa.
Lo que se podría hacer es eliminar este paso manual y que de forma automática, una vez redireccionado a la página de error 404 con la URL que había tecleado el usuario, redireccionarle de nuevo con un 200 OK (ojo, olvidar las redirecciones 301 y 302) a una página de búsqueda con dicha URL (extraemos las palabras de la cadena) y desde la cual podríamos mostrar al usuario información relevante a su búsqueda.
De esta forma transformaríamos cualquier error 404 en una página con contenido útil tanto para usuarios como para buscadores.
La cuestión sería ¿como tratarán los buscadores una redirección 200 después de un error 404? lo más lógico sería ignorarlo y no posicionar dicha página pero.. ¿funciona así? sería un curioso experimento para probar.
6 oct 2010
Blogging móvil: BlogWriter
La versión gratuita sólo brinda la posibilidad de subir texto y editar posts anteriores. Por otro lado, la versión paga -que cuesta U$S 1.99 en el App Store- también permite subir y geolocalizar fotografías.
Además, se puede hacer seguimiento de Feeds en ambas aplicaciones.
Google (también) compra tráfico en Facebook
Que si una o la otra es “mejor” o más efectiva, dependerá por supuesto del manejo que hagas de la misma, tu target, etc.
Además, también hemos considerado que las campañas pagas son una opción (Plan B) en algunos casos, e incluso que está demostrado que los sitios Web posicionados orgánicamente en un TOP10 aumentan significativamente la posibilidad de tráfico si realizan campañas de anuncios PPC.
El tema es que recientemente he notado algunos anuncios del mismo Google dentro de Facebook… y sí, la verdad me sorprendió un poco, pues quizás ellos mismos hayan comprobado –también- su efectividad o relación “costo-beneficio” al anunciarse hasta en (su competidor) Facebook…
Via: seocharlie
SEO y Arquitectura de la Información
Cuando en Kisslab comenzamos la consultoría de un proyecto el primer paso siempre es el de las buenas prácticas en buscadores, la base para que un proyecto no tenga problemas en un futuro y, que conste, que para mi eso no es SEO, es simplemente hacer un proyecto de Internet bien.
El siguiente paso que planteamos es el de Arquitectura de la Información, aunque con una breve diferencia de la clásica, y es que está enfocado al SEO. me gusta mucho el artículo de la Wikipedia sobre el tema ya que creo que refleja bastante bien lo que es la arquitectura en general, aunque le falte el puntillo SEO que os comentaba… y eso es lo que me gustaría tocar ligeramente.
Una de las definiciones que tiene es:
El arte y la ciencia de organizar y rotular sitios web, intranets, comunidades en línea y software para promover la usabilidad y la ubicabilidad (la característica de ser encontrado a través de las búsquedas en Internet).
Es decir, la Arquitectura de la Información es una de las bases del SEO, ya que promueve la “ubicabilidad” y la “usabilidad” (que esta última acaba llevando a que el usuario pase más tiempo en el sitio y acabe convirtiéndose mejor).
Entre las tareas del arquitecto de la información encontramos:
- El objeto, propósito y fines del sistema de información o sitio.
- La definición del público objetivo y los estudios de la audiencia.
- La realización de análisis competitivos.
- El diseño de la interacción.
- El diseño de la navegación, esquemas de organización y facetación de los contenidos
- El etiquetado o rotulado de los contenidos para acceder a la información.
- La planificación, gestión y desarrollo de contenidos.
- La facilidad de búsqueda y el diseño de la interfaz de búsqueda.
- La usabilidad.
- La accesibilidad.
- El feedback del resultado y los procesos de reingeniería del sitio.
Muchos de estos procesos suenan bastante a tareas que hay que hacer también para SEO, como la definición del público objetivo (y por tanto su manera de buscar), la navegación y organización (o sea, la indexabilidad que luego tendrán los robots), el etiquetado de los contenidos (o qué código HTML utilizar en todo momento), el desarrollo de los contenidos (para aumentar la calidad de las posibles consultas de búsqueda)…
Una de las cosas más interesantes de cara a organizar la información es lo que la propia estructura de la URL nos da. No podemos tener contenidos de cualquier tipo mezclados en la carpeta raíz de nuestro sitio, de la misma forma que no podemos tener un árbol de categorías con contenidos finales muy alejados del tronco… mi opinión personal y la experiencia en proyectos me dice que es mejor agrupar los contenidos según tipos de búsqueda y clustering (aplicado a los contenidos, no a la informática en general).
De esta forma hemos de tener presente cosas como que la página principal es un elemento a tratar por separado, otro podría ser la categorización por geolocalización, otro pueden ser los contenidos, otro las tipologías… esto generaría un tipo de URL distinta en cada caso, y de esa forma los motores deberían ser capaces de organizar y entender la información mucho mejor.
Aun así, la arquitectura de la información va a depender de cada sitio web, y aunque se puede generalizar y se sabe que hay cosas que, por lo general, funcionan en cualquier sitio web, es mejor hacer un análisis de la escalabilidad del sitio, también pensando en un futuro aumento de contenidos, cambio de tecnología, etc…
Via: javiercasares
4 oct 2010
Porque un blog puede valer millones
En su caso, AOL ha sido el gigante que se ha interesado. El grupo de comunicación, uno de los 5 más grandes de Estados Unidos, ha comprado el blog a Michael Arrington por una cantidad no reconocida pero que estaría entre los 25 y los 60 millones de dólares. Lo que empezó como una barbacoa en cada de Arrington en septiembre de 2005 se ha convertido en uno de los medios de comunicación con más influencia sobre los compradores de tecnología, una industria que deja elevados beneficios y que tiene un poder creciente en la sociedad como reconocía recientemente Vanity Fair.
La expansión de los blogs durante los últimos años es un hecho que los medios tradiciones no pueden pasar inadvertidos. La conversión al formato digital que algunos como el New York Times ya tienen clara abrirá una nueva batalla por unos espacios que la blogosfera ha sabido ocupar. Su estilo directo, enfocado, apasionado, rápido e incisivo son una garantía a la hora de llegar a lectores que saben lo que quieren leer.
Este es el resumen gráfico de cómo Michael Arrigton sacó adelante TechCrunch construido por sus compañeros en Gigaom:
Goo.gl acortador de URLs de Google
También podemos crear urls cortas sin necesidad de entrar en ninguna cuenta.
¿Por qué lanza Google su propio acortador de urls?
Oficialmente porque necesitaba un producto seguro, que no desapareciera y que hiciera bien las cosas, con redirecciones 301, rápido, estable y seguro.
De cara al usuario Google siempre es una garantía, y si además pone a nuestra disposición todas las estadísitcas gratuítamente, es inmejorable. Probablemente, Google habrá pensado que este tipo de urls no son una moda y que permanecerán, y no quieren perder todo el tema de estadísticas que es de lo que viven principalmente.
Es decir, que hacen lo mismo que otras herramientas de este tipo, como Bit.ly, pero gratis y ofreciendo seguridad. A cambio, las estadísticas de nuestras urls. Por otro lado, también aprovechan para promocionar su navegador Chrome, que ya tiene extensiones preparadas para el uso de esta herramienta.
De momento no ofrece opciones de elegir tipos de urls, o de configurarlas un poco, pero sus urls son permanentes y únicas.
Conocer el hosting de una página web
Es por eso que hoy les comento sobre una herramienta web llamada WhoisHostingThis, que nos permite conocer el hosting de cualquier dominio. Su uso es muy sencillo. ¡Ya verás!
Simplemente basta con introducir la URL, cuyo hosting deseamos saber y seleccionar enter para que nos arroje los resultados.
1 oct 2010
SEO Quake: Extensión SEO para Firefox
Con SEO Quake, los webmasters pueden investigar acerca de importantes parámetros a tener en cuenta para optimizar sus páginas web. El plugin ha sido descargado más de un millón de veces y tiene una muy buena puntuación (4 estrellas).
Las funcionalidades de esta barra para Firefox nos permitiría por ejemplo ver las posiciones en los resultados de búsqueda de determinadas páginas, así como también mostrarnos la posición de los resultados al buscar en Google sobre determinadas palabras claves.
Sin duda se trata de una alternativa muy buena frente a otras herramientas que hacen lo mismo, aunque hay gente que se queja que no funciona muy bien en Mac.
Estudio: La mayoría de los twitteos no los responde nadie
Del porcentaje que sí recibe respuesta, en el 85% de los casos sólo es una respuesta, no muchas. En tanto apenas 1,53% de los tweets se convierten en conversaciones de más de tres niveles (o sea que hay una respuesta a la respuesta a la respuesta – etc).
¿Significa que nadie está leyendo lo que pones en Twitter? Quizás, aunque no necesariamente. El que no te respondan no significa que no te hayan leído, pero lo cierto es que estas cifras más que nada apoyan la idea de que Twitter está lleno de blabla sin sentido.
Sysomos también descubrió que lograr que te retwitteen es condenadamente difícil. Sólo un 6% de todos los tweets producen un RT, así que si estás triste porque nadie te retwittea, no te sientas solo porque estás con la mayoría de la gente.
El estudio continúa señalando que el 96,9% de las respuestas y el 92,4% de los retweets ocurren durante la primera hora después de que se lanzó el mensaje.
ARCHIVO DEL BLOG
-
▼
2013
(121)
-
▼
julio
(13)
- SEO low cost ¿de verdad vale la pena?
- 25 errores comunes cuando estás escribiendo un art...
- Que hacer si me encargan un articulo
- 7 consejos para el rediseño de un sitio web que no...
- El SEO sigue siendo una de las estrategias de mark...
- 3 puntos clave mejorar nuestro comercio electrónico
- 4 Factores que influyen en el aumento de las venta...
- Especial blogueros: como vivir de tu blog y no mor...
- Cuándo y por qué los vídeos de empresa se hacen vi...
- Qué es el email marketing y cómo hacer que tu camp...
- ¿Tienes un plan para tu vida?
- ¿Cuál es el objetivo de una página web?
- Lista de los 200 factores SEO de Google
-
▼
julio
(13)
-
►
2012
(189)
- ► septiembre (15)
-
►
2011
(294)
- ► septiembre (18)
-
►
2010
(360)
- ► septiembre (27)
-
►
2009
(228)
- ► septiembre (30)
-
►
2008
(114)
- ► septiembre (13)