Uno de los aspectos problemáticos de la inteligencia artificial generativa, tecnología que atraviesa tiempos de popularidad y gran alcance, es la dificultad de distinguir el contenido real del aquel que fue manipulado o creado sintéticamente. Google Fotos se suma al listado de programas que proponen soluciones a ese dilema, en este caso agregando información relevante para que los usuarios estén avisados.
La IA generativa multiplica los riesgos del photoshopeo
La circulación de imágenes y videos editados —incluso los creados para difamar y/o engañar— no es una novedad de la que nos enteramos en esta década. El célebre photoshopeo también ha permitido la manipulación de contenido, que no solo se realizó con el software de Adobe.
Sin embargo, el auge de la inteligencia artificial generativa ha multiplicado en forma exponencial esta problemática que afecta nuestra comprensión del contenido. Chatbots como ChatGPT y Gemini crean textos que no siempre podemos distinguir de uno redactado por un humano; sistemas como DALL-E y Meta AI generan imágenes en ocasiones superrealistas; y ya comenzaron a circular los clonadores de voces con IA y los generadores de video, como Sora de OpenAI y Veo de Google, que aún son experimentales, aunque ya estiran su sombra sobre la percepción de aquello que llamamos realidad.
Google Fotos se pone buchón: delatará a las imágenes creadas con IA generativa
En este contexto, siguiendo a The Verge, la industria tecnológica tiene la responsabilidad de favorecer la transparencia. En criollo, las compañías que desarrollan sistemas de IA generativa deberían ayudar a que sea más simple distinguir si esas tecnologías metieron la cola en los contenidos que circulan.
Google recogió el guante y anunció que a partir de la próxima semana, la app Fotos —o Photos, tal como se la conoce en inglés— indicará cuando se editó una imagen con la ayuda de la IA.
“Las fotos editadas con herramientas como Magic Editor, Magic Eraser y Zoom Enhance ya incluyen metadatos basados en estándares técnicos del Consejo Internacional de Prensa y Telecomunicaciones (IPTC) para indicar que se han editado con IA generativa”, explicó el director de ingeniería de Google Photos, John Fisher. “Ahora vamos un paso más allá (…) Esta información será visible junto a datos como el nombre del archivo, la ubicación y el estado de la copia de seguridad en la aplicación Fotos”, agregó.
Desde la firma estadounidense señalaron que los avisos no se limitarán estrictamente al empleo de IA generativa. Por ejemplo, también informará si se usaron herramientas de edición que permiten combinar elementos de diferentes imágenes, como la que ellos mismos lanzaron hace algunas semanas, Add Me, que según contamos en TN Tecno sirve para que los fotógrafos también aparezcan en las tomas grupales con un truco astuto que consiste en fotografiar en dos instancias, que luego de “pegan”.
Tal como vemos en la animación que divulga Google, en los detalles de la imagen se sumará la sección “Información de IA”. El cambio se realizará tanto en las versiones móviles de Photos como en la edición para Web.
“Este trabajo no ha terminado, y continuaremos recopilando comentarios y evaluando soluciones adicionales para agregar más transparencia en torno a las ediciones de IA”, añadió Fisher, a sabiendas de que en ciertos casos es posible ocultar los metadatos y eludir los avisos, que Google Fotos pretende hacer más visibles.
En definitiva, cabe señalar que los metadatos en las imágenes ya existían y que con esa movida lo que hace Google es ponerlos más al frente, para que todos los usuarios estén informados al respecto.