Lo que nunca se debe hacer en SEO: 7 técnicas para que Google te odie

Seguramente os habréis encontrado con muchas empresas que prometen posicionar en los resultados de búsqueda de Google un website en “días”. Bueno, pues eso es imposible.

Google posiciona los websites en base a un algoritmo muy evolucionado que hace un ranking a partir de muchísimos factores. De hecho se calcula que más de 200. El gigantesco buscador rastrea los sitios de Internet mediante robots llamados Googlebots para saber si una página es de calidad o no.

Para posicionar un website hay que utilizar cuidadosamente diferentes técnicas de posicionamiento en buscadores (SEO), como enlazar contenido relevante, usar palabras clave de cola larga, crear un sitemap XML dinámico, optimizar el código interno, no tener enlaces internos rotos, generar contenido de calidad y una infinidad de factores que ayudarán a posicionar un website de forma orgánica, incrementando su visibilidad en los buscadores y por tanto atrayendo más tráfico hacia él.

Para engañar a Google han ido surgido diferentes técnicas ilícitas que posicionan un website en poco tiempo, pero que al ser descubiertas hacen que ese website pase a ser un Don Nadie en Internet, perdiendo su visibilidad, hasta el punto de ser borrado del buscador. No recomendamos, y por supuesto, no desarrollamos estas técnicas, porque pueden hacer mucho daño a los clientes a largo plazo, perjudicando gravemente su imagen.

Black Hat SEO

Aquí explico lo que NO hay que hacer en SEO, que se conoce como  Black Hat SEO: romper las reglas establecidas por los buscadores.

  • Texto Oculto // esta técnica es muy famosa y lleva ya más de 12 años en acción. Consiste en escribir texto del mismo color que el fondo de la página; así el usuario no puede ver el texto, pero los buscadores sí y consideran que es contenido visible. Actualmente los spammers están usando CSS para ocultar el texto. También utilizan la etiqueta <div> y le agregan el atributo para que no se muestre el texto, así el texto con sus palabras clave serán indexadas, pero no es visible para el usuario.
  • Contenido Duplicado // es la creación de varios websites con el mismo contenido (o muy similar). El problema del contenido duplicado es que cualquier persona puede duplicar contenido original y los buscadores no distinguen cual es el propietario inicial de ese contenido. Es importante vigilar si alguien duplica nuestro contenido y tomar las medidas necesarias. Una forma de saberlo es googleando una frase de nuestro website entre comillas. También y mediante el Content Scraping se toma directamente contenido desde otros blogs a través del feed RSS y se pone en un website como si fuera original. Estas prácitcas se pueden denunciar mediante Google Webmaster Tools.
  • Cloacking // consiste en mostrar un contenido para los buscadores y otro para los usuarios. Se hace una redirección mediante diferenciación de IP’s a una página en Flash (no indexado por los buscadores) a los usuarios, mientras que se crean páginas optimizadas para los buscadores con el fin de generar más tráfico entrante. Un website responsive, que muestra diferente contenido dependiendo del dispositivo (iPhone, tablets, etc), no está considerado cloacking.
  • Exceso de palabras clave // insertar en un texto una densidad  de keywords superior a un 12% empieza a ser peligroso. La densidad de las palabras clave (keyword density) es el ratio de apariciones de una palabra clave comparado con el total de palabras que componen un texto; si un texto tiene un total de 1000 palabras y una palabra aparece 100 veces su densidad será del 10%. A esto se le llama keyword stuffing (rellenar) y hay herramientas que ayudan a calcular esta densidad para no ser sancionados por Google. Si un buscador ve: “quiero viajar a Hong Kong, porque viajar me gusta; viajar me relaja” no le va a gustar nada, y esa agencia de viajes tendrá un problema con su posicionamiento. Los avances en Inteligencia Artificial son enormes y muchos están centrados en determinar cuando un contenido es semánticamente incorrecto.
  • Cambio de Código // colocar en un dominio una página con texto plano sin absolutamente nada de código para posicionar ese website y adquirir un buen pagerank. Una vez obtenido el posicionamiento se sube el código. Esto no tarda en ser detectado ya que los bots rastrean permanentemente e indexarán el nuevo contenido, haciendo descender el pagerank.
  • Farm Links // las granjas de enlaces se pueden considerar como redes de websites que se intercambian enlaces unas con otras con la finalidad de incrementar la valoración establecida por el pagerank. Se aprovechan de que el algoritmo de Google da mucha importancia a los enlaces entrantes que tenga un website. Es una técnica muy común para posicionarse rápidamente. Ahora, y debido a recientes cambios en el algoritmo, tener un enlace en un centro de enlaces es motivo para una penalización ya que los buscadores clasifican estas granjas de enlaces como spam, ya que están diseñadas exclusivamente para engañar a los buscadores.
  • Intercambio de enlaces con otros websites // hacer una campaña de enlaces efectiva es muy importante para posicionarse en los buscadores, pero esto no se trata de intercambiar enlaces con cualquiera. Por ejemplo, si se intercambian enlaces con websites que están penalizados te puede llevar a perder las posiciones ganadas. Tampoco es recomendable hacerlo con aquellos que tengan contenido irrelevante en relación al que recibe enlaces y mucho menos que contengan material adulto o se dediquen a las apuestas. La compra-venta de enlaces está muy mal vista por Google y siempre que se enlace con websites de contenido no relacionado es imprescindible que lleve el atributo “nofollow”, dónde no se traspasa autoridad.

Google Search

El Efecto Sandbox

Google Sandbox es un filtrado especial de Google en su algoritmo, que hace que los websites recién creados no aparezcan, o aparezcan en posiciones muy inferiores en los resultados de búsqueda, aún  teniendo muchos enlaces entrantes y contenido de calidad. Google piensa que un sitio no debe tener muchos enlaces entrantes al principio porque debe pasar un periodo de prueba, para ver si esos enlaces son reales o han sido comprados en una granja de links. Como no es normal que un website nuevo tenga tantos enlaces “naturales” se queda atrapado en su sandbox.

Es muy importante cuando se traslada un dominio a uno nuevo efectuar una redirección 301 del sitio antiguo, al nuevo, ya que traslada el pagerank, y el estado de indexación anterior, evitando que volviera a pasar por el filtro del sandbox.

¿Conoces alguna técnica más de Black Hat SEO?