Casi el 30% de lo que ves en la Web está copiado de otro sitio
Uno de los ingenieros detrás del motor de Google explica porqué se produce este fenómeno.
Leíste un texto que te gustó, copiaste unos párrafos, le agregás una introducción tuya, le ponés una foto que sacaste de un Tumblr amigo y lo publicás. Replicás el link en Twitter, amigos tuyos lo leen, lo copian y lo pegan en Facebook. Así hasta el infinito.
Esta es la forma en que más o menos sabemos que funciona el contenido publicado en la Web hoy, o por lo menos eso sospechábamos hasta esta semana.
En una de sus video-columnas habituales, Matt Cutts, un ingeniero que trabaja en el desarrollo del motor de búsqueda de Google desde el año 2000, explicó a uno de los usuarios de las herramientas de Webmaster de Google que en la Web entre el 25 y el 30 por ciento del contenido es duplicado.
Lejos de ser algo negativo, cuenta Cutts, esta duplicación es propia de la dinámica que ha adquirido Internet en los últimos años, donde cada usuario tiene a su disposición múltiples herramientas de publicación que le permiten tomar contenido de otro sitio y subirlo al suyo propio. En este sentido, el ingeniero de Google lo diferencia del contenido basura (spam) que lo que hace es replicar automáticamente material tomado de otros sitios a través de RSS.
En la misma columna, Cutts cuenta que Google tiene desarrollados mecanismos que le permiten detectar contenido duplicado y que, para evitar que esto influya en los resultados de las búsquedas que hacen los usuarios, el buscador los agrupa bajo un mismo link para permitir visualizar otros resultados no repetidos.
Acá se puede ver el video (está en inglés) donde Matt Cutts explica la duplicación del contenido en Internet.