Apple revisará las fotos de los iPhones ¿A qué se debe?

Usará una herramienta de análisis que busca un patrón de datos en fotos conocidas de abuso infantil; otras compañías ya lo hacen hace años

Apple presentó sus planes para escanear los iPhones en Estados Unidos en busca de imágenes de abuso sexual infantil, lo que complace a los grupos de protección de los niños, pero suscita la preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.

Apple anunció que su aplicación de mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible sin que las conversaciones privadas puedan ser leídas por la empresa.

La herramienta que Apple denomina “neuralMatch” detectará imágenes de abuso sexual infantil previamente identificadas sin comprometer los mensajes de los usuarios. Si encuentra una coincidencia, la imagen será revisada por un empleado que notificará a las autoridades si es necesario.

Pero los investigadores afirman que la herramienta podría destinarse a otros fines, como la vigilancia gubernamental de disidentes o manifestantes.

Preocupación por la privacidad

Al investigador en criptografía Matthew Green, de la Universidad Johns Hopkins, le preocupa la posibilidad de que se utilice para inculpar a personas inocentes enviándoles imágenes inofensivas pero malintencionadas, diseñadas para que aparezcan como coincidentes con las de pornografía infantil. Esto engañaría al algoritmo de Apple y alertaría a las autoridades para incriminar a la persona.

“Esto es algo que se puede hacer”, dijo Green. “Los expertos son capaces de hacerlo con bastante facilidad”.

 

El sistema de Apple, similar al de otras compañías, compara la huella criptográfica de la foto que tiene un usuario con las de imágenes ya identificadas como pornografía infantil (CSAM, por sus siglas en inglés)Apple

Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo “listas de hash” de imágenes de abusos sexuales a menores. Apple también ha estado analizando los archivos de los usuarios almacenados en su servicio iCloud en busca de este tipo de imágenes.

La empresa ha estado bajo la presión de los gobiernos y las fuerzas del orden para que permita la vigilancia de los datos cifrados. La creación de estas medidas de seguridad le permite a Apple un frágil equilibrio entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.

Apple cree que ha conseguido esta hazaña con una tecnología desarrollada en colaboración con varios criptógrafos de renombre, como el profesor de la Universidad de Stanford Dan Boneh, cuyo trabajo en este campo ha sido galardonado con el premio Turing, considerado la versión tecnológica del premio Nobel.

Apple fue una de las primeras empresas en adoptar el cifrado “de extremo a extremo”, en el que los mensajes se codifican para que sólo puedan leerlos sus remitentes y destinatarios. Pero las autoridades llevan tiempo presionando para que se les permita acceder a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.

“La ampliación de la protección de Apple a los niños es un factor de cambio”, dijo en un comunicado John Clark, presidente y director general del Centro Nacional para Niños Desaparecidos y Explotados. “Con tanta gente que utiliza productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo engañados en línea, y cuyas horribles imágenes son compartidas.”

La directora general de Thorn, Julia Cordua, dijo que la tecnología de Apple equilibra “la necesidad de privacidad con la seguridad digital de los niños”. Thorn, una organización sin ánimo de lucro fundada por Demi Moore y Ashton Kutcher, utiliza la tecnología para ayudar a proteger a los niños de los abusos sexuales al identificar víctimas y trabajando con las plataformas tecnológicas.