Facebook estrena un “botón de contexto” para evitar desinformación

Zuckerberg, cansado de las noticias falsas, lanzó las pruebas del botón 'i'.

facebook

Facebook ofrecerá información sobre los editores de las noticias que se publiquen en la red social. La idea de la plataforma de Zuckerberg es brindar información detallada sobre la fuente de la información apoyándose en entradas de Wikipedia.

El estudio de resultados del ‘botón de contexto’ inició el pasado jueves, según indica Facebook en su blog. Aparece en los enlaces compartidos en el News Feed y despliega un panel informativo con la mencionada entrada de Wikipedia sobre el editor y un enlace al perfil completo para ayudar a los usuarios a identificar si la fuente es fiable.

Ya podés compartir tus historias en Instagram y Facebook a la vez

En caso de que la fuente carezca de un perfil en Wikipedia, dicho espacio aparecerá vacío. Esto sería un primer indicativo sobre la legitimidad de la fuente y si puede ser considerado como un editor honesto.

“La gente nos ha dicho que quiere más información sobre lo que está leyendo”, dice Sara Su, gerente de producto de Facebook en declaraciones a “TechCrunch”: “Los usuarios quieren mejores herramientas para ayudarles a entender si un artículo es de un editor en el que confían y evaluar su la historia sí es creíble”, añade.

Basado en lo dicho por Su, la nueva herramienta también muestra la página de Facebook del editor de noticias, así el enlace analizado haya sido compartido por un tercero, datos sobre cómo el enlace es compartido dentro de la red social y un botón para seguir a la página en la red social de la fuente.

Facebook permite "callar" a un amigo molesto un mes

Por otra parte, el ‘botón de contexto’ revelará artículos relacionados en todos los enlaces compartidos, ya no de forma exclusiva en las noticias populares o bajo sospecha de ser noticias falsas como Facebook estuvo promocionando hasta ahora.

A la vez, tendrá un espacio para explicar si el artículo en cuestión forma parte de un tema que es tendencia.

Como es evidente, esta prueba es la más reciente acción de la empresa de Mark Zuckebrerg para garantizar la integridad de las noticias compartidas en Facebook. Según dice Su, a más información que se ofrece se crean más vectores potenciales para la desinformación: “Este trabajo refleja la retroalimentación de nuestra comunidad, incluyendo editores que colaboraron en el desarrollo de funciones como parte del Facebook Journalism Projetc”, dice.