
El cloaking (encubrimiento) o el hack clásico de la página principal, son los dos principales ejemplos.
Este último, consiste en agregar al código de nuestra web un enlace que lleve a la página de inicio mediante un enlace del tipo www.paginaweb/index.php. En realidad este simple hecho, es considerado por Google como un engaño ya que lo que estamos haciendo sin saberlo, en muchos casos, es decirle al buscador que indexe una página (en este caso http://www.paginaweb.com/index.php) que tiene claro, el mismo contenido que la página de inicio de la dirección (http://www.paginaweb.com).
Otra forma bien conocida de black hat es el cloaking: Esto sucede básicamente cuando a los buscadores se les muestra un contenido y a los buscadores se les muestra otro, usualmente la página que se le muestra a los buscadores esta optimizada de forma excesiva con contenido optimizado para las frases que se quiere posicionar.
Por otro lado, según el propio Google, el contenido duplicado no supone una penalización y cuando expusieron el tema fueron muy claros. Aunque bien es cierto que la misma duplicación de contenidos no facilita una correcta indeaxión de estos, todo lo contrario lo dificulta.
Otro ejemplo de penalización conocidas son aquellas que surgen cuando se trabaja con páginas dinámicas y MODREWRITE. Cuando dos páginas llevan al mismo artículo a través de diferentes direcciones como, http://www.paginaweb.es/article.php?ID=32 y http://www.paginaweb.es/article/Sony/SonyVCR230
En este caso concreto, si le indicamos al buscador lo contrario, este puede indexe ambas páginas y considerarlas como contenido duplicado.
Una forma de solucionar problemas como esta, consiste en programar de forma adecuada nuestras páginas web. Pero si el buscador ya ha indexado páginas que en realidad son la misma, no tenemos porque alarmarnos, existe un técnica que nos permite deshacer el error.
Por un lado tenemos las redirecciones 301 o el robot.txt y por otro tenemos una técnica recomendada por el mismo Google basado en la etiquetacanonical.
Para instar esta etiqueta en nuestro codigo tenemos que acudir a la etiqueta HEAD e insertar entre <>y< /head>) el código < rel="”canonical”" href="”URL"> . La dirección canónica será por lo tanto la que consideramos que es la que identifica correctamente a la página.
En el caso anterior, nuestra URL canónica sería < rel="”canonical”" href="”http://www.paginaweb.es/article/Sony/SonyVCR230”">
Existen otras formas conocidas de “engañar” a los buscadores que trataremos en otros artículos.