Antes y Después de Panda y Penguin

Share

panda-y-penguin

Google tiene una manera muy pintoresca de darle nombre a sus proyectos.  Por ejemplo, los distintos sistemas operativos de los teléfonos Androide han tenido nombres como cupcake, donut, froyo, gingerbread, honeycomb, icecream sandwich y jelly bean. En el caso del algoritmo que hace funcionar su motor de búsqueda la cosa no ha sido muy distinta: boston, casandra, dominic, esmeralda, caffeine, vince, panda y penguin.

Con estos nombres —aparentemente “inocentones”— han ido cerrándole el cerco a aquellos que se empeñan en violentar su sistema de búsqueda.

Para Google —y para los demás motores de búsqueda— es importante que la experiencia de sus usuarios al momento de realizar una búsqueda sea lo más positiva posible. Esto lo logran ofreciendo resultados certeros. Si los resultados no son certeros la gente va a dejar de usarlos. Y si la gente deja de usarlos… no se van a exponer a los comerciales que colocan sus clientes.

Mucha gente piensa que Google, Bing y Yahoo están en el mercado de la búsqueda. Ese es un error. En lo que están en realidad es en el mercado de la publicidad. La búsqueda es meramente el mecanismo que utilizan para atraer usuarios y exponerlos a la publicidad que le venden a sus clientes.algoritmo-panda-de-googleEn marzo del 2011 Google anunció una revisión a su algoritmo titulada Panda.  En abril del 2012 anunciaron a Penguin. Juntas, estas dos revisiones, han tenido un efecto devastador sobre las fincas de enlaces, los bancos de artículo y las páginas que se dedican a publicar contenido plagiado o duplicado.

Hay que recordar que la Internet tiene poco más de 20 años de establecida y Google está a punto de cumplir 15 años de existencia.  Por lo tanto, todo este proceso de evolución de los sistemas de búsqueda se ha materializado ante nuestros ojos.  Y con dicha evolución ha surgido una nueva disciplina llamada SEO (search engine optimization).

En el comienzo lograr que una página se colocara favorablemente en los motores de búsqueda era relativamente fácil.  Todo lo que hacía falta era colocarle unos pocos de “metatags” con palabras claves en el HTML y “mágicamente” la página se colocaba al tope de los resultados de búsqueda.

¿Y qué era —o son— los metatags? Imagínalos como anotaciones de referencia en el HTML de tu página que le decían a los motores de búsqueda cual era el título de la página, la descripción, las palabras claves y otra información secundaria como el país, la ciudad, el autor y otros datos misceláneos.

Con el pasar del tiempo el mercado se tornó cada vez más competitivo. Ya no bastaba con colocar “metatags”.  Los más conocedores comenzaron a “trampear” sus páginas para ganar ventaja sobre sus competidores.  A estas técnicas se les llamó “black hat”.

Sin embargo —con cada revisión de sus algoritmos— los motores de búsqueda han ido cerrándole el cerco a estos usuarios inescrupulosos.  Tanto así, que a muchos los han vedado para siempre de los motores de búsqueda por sus prácticas inapropiadas.

Las últimas dos revisiones de este tipo fueron Panda y Penguin, y ambas fueron de Google.  El propósito de Panda fue eliminar el contenido duplicado y restarle importancia a aquellos sitios que no contaran con contenido “fresco y relevante”. En otras palabras, los sitios con contenido “rancio” se vinieron debajo de la noche a la mañana.algoritmo-penguin-de-ggogle-2Entonces llegó Penguin.  Penguin atajó aquellos sitios que se valían de técnicas “black hat” como: exceso de optimización, palabras claves invisibles y enlaces provenientes de “fincas de enlaces”.  También tuvo un efecto devastador sobre los bancos de artículos.

Veamos cada una de estas cosas por separado para entender por qué Google se vio obligado a atajarlas.

El contenido duplicado se daba en la Internet por varias razones, pero las dos principales era el “scraping” y los bancos de artículos.  El “scraping” (se pronuncia screiping) no es otra cosa que copiar el contenido de otra persona y publicarlo como propio.  Obviamente, a eso también se le llama plagio.  Pero esa es materia para las cortes.  En tribunal de Google al que cojan cometiendo “scraping” es culpable y punto.

La segunda razón para el contenido duplicado eran bancos de artículos.  Con el pasar del tiempo los expertos en Internet se dieron cuenta de que Google le daba mucha importancia a los enlaces “entrantes” que tuviera un sitio. En otras palabras, si muchas páginas se enlazaban con la nuestra eso era bueno.

Eso hizo que surgieran los bancos de artículos.  Los bancos de artículos son lugares en los que los escritores colocan artículos para que las personas con sitios de Internet los utilicen completamente gratis.  Claro, el compromiso es que el dueño del sitio tiene que colocar un enlace al final del artículo apuntando hacia el sitio del autor.

Como te podrás imaginar, si el artículo aparecía en 50 sitios el autor lograba 50 enlaces apuntando hacia su página.  Y si por casualidad una de esas 50 era una universidad se llevaba el “premio gordo” porque Google le daba más importancia todavía.

¿Cuál era el problema? El problema era que al realizar una búsqueda muchas veces teníamos varias páginas corridas con exactamente el mismo contenido.  ¿Por qué? Porque todas lo habían obtenido del mismo sitio.

Hoy en día ese problema se ha minimizado.  ¿Por qué?  Porque el Google de 2013 aborrece el contenido duplicado.  Por supuesto, huelga decir que escribir para los bancos de artículos ya no resulta atractivo.
amazon-accesorios-para-el-iphone-600px

Con la llegada de Penguin la cosa se puso todavía más difícil para los tramposos. Primero, Penguin es todavía más estricto con el contenido duplicado.  Pero además ataca directamente las técnicas “black hat” y hasta ha habido sitios que los han removido permanentemente del directorio.

¿Y sabes qué? Hoy en día si tu negocio no aparece en Google sencillamente no existe.

Y como si lo mencionado hasta ahora fuera poco, hoy en día los motores de búsqueda principales Google, Bing y Yahoo ignoran por completo los metatags tradicionales, con la excepción de el de “title”, “description” y “alt”.

El primero le dice al motor de búsqueda cuál es el título de la página. El segundo le da una corta descripción del contenido y el de “alt” se usa para describir imágenes, archivos de audio y de video.

Entonces, ¿qué nos queda?

Pues nos queda el contenido.  Y de este mayormente la redacción.  El arte de colocar una página favorablemente en los motores de búsqueda hoy en día consiste en producir contenido “fresco y relevante”.  Y no cada vez que haya un eclipse.  Hay que ser consistente.

Ese contenido puede ser texto, audio, video o imágenes.  Pero en el caso de que no sea texto tiene que estar acompañado de un texto que lo describa.  ¿Por qué? Porque los motores de búsqueda lo que leen es texto. No son capaces de observar tus imágenes, escuchar tu texto o ver tu video.

Y ese texto no puede ser texto cualquiera. Tiene que estar escrito acorde con los parámetros que establecen los motores de búsqueda.

¿Y cuáles son esos parámetros.  Primero, debes escoger tus palabras claves antes de escribir. Segundo, debes incluir tus palabras en el texto de manera que no excedas los parámetros de densidad establecidos por los motores de búsqueda. Tercero, tus palabras claves deben aparecer en el título. Cuarto, tus palabras claves deben aparecer en la descripción.  Y finalmente, tus palabras claves deben aparecer en los “alt” tags.

El arte de colocar una página favorablemente en los motores de búsqueda hoy en día consiste en producir contenido “fresco y relevante”.

¿Y por qué tanta exigencia? Pues, ¿recuerdas cuando dije que tu contenido debía ser “fresco y relevante”?  Fresco se refiere a que te mantengas incluyendo contenido nuevo constantemente y relevante se refiere a que el contenido que incluyas se relacione con la temática general del sitio.

Hace unos años había gente que usaba palabras claves como Pamela Anderson o Kim Kardashian y cuando el usuario escribía estas palabras en su navegador llegaba a sitios porno o a páginas en las que se vendía Viagra.  Eso precisamente es lo que Google se ha propuesto erradicar.  De hecho, la cosa la han llevado tan lejos que ahora el que esté buscando sitios porno tiene que escribir la palabra porno entre los criterios de búsqueda.

Como hemos visto el objetivo central de todos estos cambios ha sido afinar el algoritmo para asegurar los resultados de búsqueda más certeros.  ¿Por qué? Porque si los resultados no son certeros la gente va a dejar de usar el motor de búsqueda. Y si eso sucede va a disminuir el volumen de tráfico y no van a poder cobrar las tarifas que cobran por los anuncios.

banner-click-to-tweet-600x60

Por eso la revista Mashable, una de las más prestigiosas en la Internet, designó al 2013 como el año del contenido. Se acabó el “truqueo”. No importa lo linda que luzca tu página.  De ahora en adelante lo único que va a funcionar es el contenido “fresco y relevante”.

©2013, Orlando Mergal
_________________
El autor es Socio Fundador de Accurate Communications, Licenciado en Relaciones Públicas (R-500), Autor de más de media docena de Publicaciones de Autoayuda, Productor de Contenido Digital y Experto en Comunicación Corporativa.?Inf. 787-750-0000

logo-linkedIn

Enlace para bookmark : Enlace permanente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *