Facebook: así es el manual para combatir las fake news
The New York Times tuvo acceso al "libro de reglas" de la compañía para controlar qué publicaciones eliminar y muestra poca comprensión política.
Hace apenas dos días, The Guardian reveló que los periodistas que debían luchar contra las fake news en Facebook no estaban contentos con el manejo de la red social. “Nos usaron para mejorar sus relaciones públicas”, afirmaron. Para ellos, la empresa no se tomó en serio el trabajo en contra de las noticias falsas.
Ahora, un informe de The New York Times reveló un “libro de reglas” de Facebook para el filtrado de mensajes, utilizado por un ejército de moderadores de la red social para monitorear el contenido.
Son más de 1.400 páginas que revelaron las cuestionables reglas de la compañía de Mark Zuckerberg que incluyen, entre otras cosas, falta de moderadores de contenido en los idiomas nativos de gran parte del mundo, poca comprensión de los matices del lenguaje o nuevas decisiones que toman, en conjunto, abogados e ingenieros, con poco conocimiento socio política de temas globales. El documento incluye diapositivas de Powerpoint y tablas de Excel que buscan generar claridad sobre las reglas de publicación. Para el NYT, “lo único que queda claro es que la compañía se ve superada (por la situación)”.
Estas reglas se envían a empresas de terceros que contratan moderadores. Personal externo a Facebook. Estos empleados son los que deben entender estas complejas reglas y aprobar o rechazar contenido con un simple sí / no. Esto incluye el uso de emojis, algunos de los cuales fueron categorizados para identificar comentarios sexuales, acoso escolar o textos difamatorios.
¿Cuál es la gravedad del asunto? Vamos a ejemplificar. Sos un empleado de un call center que trabaja como moderador de la mayor red social del planeta. Facebook manda un manual de 1400 páginas que actualiza constantemente. Tu trabajo consiste en recibir posteos y decidir, en 8 o 10 segundos, si esa publicación respeta o no esas reglas. Para los propios moderadores, se trata de un “ejercicio de frustración”. No pueden tomarse el tiempo que hace falta para tomar una decisión. ¿Y si no entienden el idioma? Suelen usar Google Translate u otras aplicaciones de traducción para “entender” lo que escribió alguien y decidir si puede permanecer o no en la plataforma.
Otro ejemplo: en la India, una de las reglas de Facebook le dice a los moderadores que deben eliminar cualquier publicación que degrade una religión, porque esto viola la ley de ese país. Pero por otra parte, una regla tan estricta, sin matices, regula la libertad de expresión.
Actualmente la empresa tiene alrededor de dos mil millones de usuarios y solamente 7.500 moderadores de contenido que deben actuar sobre más de 100 idiomas en miles de millones de posteos diarios. La red social varias veces se jactó del uso de Inteligencia Artificial para escalar el trabajo, pero por ahora las máquinas no son lo suficientemente inteligentes para captar sutilezas del lenguaje. Se necesita la moderación de personas de carne y hueso, y especialmente gente capaz de entender la coyuntura de cada país.
En vez de eso, Facebook decidió armar eternas presentaciones de diapositivas con reglas para que su ejército de moderadores pueda resolver -o censurar- las publicaciones de las personas en segundos. De esta forma, según el informe del NYT, la red social se convirtió en un “árbitro de discursos globales”, mucho más poderoso de lo que públicamente se reconoce o que la propia compañía acepta.
El artículo del periódico estadounidense también revela que este “manual de estilo” hizo que en algunos países se tolere un lenguaje extremista mientras que en otros se censuran discursos más racionales. Otro ejemplo: en Indonesia se eliminaron posteos de recaudación de fondos para víctimas de un volcán, porque uno de los sponsors de la causa estaba en una lista interna de Facebook de grupos baneados. En cambio, en Myanmar, un error de papeleo permitió que un grupo extremista, acusado de fomentar el genocidio, esté en la plataforma por meses.
“El rol de Facebook se hizo tan hegemónico, tan monopólico, que se transformó en una fuerza en sí mismo”, afirmó Jasmin Mujanovic, un experto en los balcanes. “Ninguna organización, especialmente una con fines de lucro como Facebook, debería tener esa clase de poder para influenciar el debate público y la política”, agregó.
Algo parecido planteó la revista Wired a principio de año, con un informe sobre los dos años que llevaron a la empresa de Mark Zuckerberg de la gloria al infierno, y que reveló los engaños a los usuarios, la manipulación editorial e incluso las noticias falsas que podrían haber llevado a Donald Trump a la Casa Blanca.
¿Qué dice Facebook al respecto? Los ejecutivos de la compañía afirman que están trabajando de forma rápida para librar a la red social de los posteos peligrosos.
“No es nuestro lugar corregir los discursos de las personas, pero sí queremos que los usuarios respeten las normas de comunidad de la plataforma”, afirmó Sara Su, una ingeniera senior del News Feed. “Cuando estás en nuestra comunidad, queremos estar seguros de tener un buen balance entre libertad de expresión y seguridad”, concluyó.
Otra ejecutiva, afirmó que el objetivo principal es prevenir el daño, y que la perfección no es posible. “Tenemos miles de millones de posteos cada día, e identificamos más y más potenciales violaciones a nuestras reglas con nuestros sistemas”, explicó Monika Bickert, Gerente de Políticas Globales. ¿El problema? La cantidad: “A esa escala, aunque acertemos un 99% de las veces, vamos a tener miles de errores”.