Tecnología - alarmante

Domingo 22 de Septiembre de 2024 - 15:10 hs

Crece el uso de IA para generar contenido de abuso sexual a menores

Un Fiscal propone penar la generación de imágenes ficticias, incluso cuando son representaciones de ficción, sin víctimas reales.

Actualizado: Domingo 22 de Septiembre de 2024 - 15:11 hs

El desarrollo acelerado de la inteligencia artificial y las herramientas generativas revolucionaron una gran cantidad de aspectos de nuestra vida, como el entretenimiento, el trabajo y la creación de contenidos, por ejemplo. Sin embargo, esta innovación también nuevas puertas a delitos que la legislación tradicional no previó.

Entre estas prácticas se encuentra un fenómeno alarmante: la utilización de IA para la creación de material de abuso sexual de menores que, según la Internet Watch Foundation, creció un 360% el último año.

Este problema plantea una pregunta urgente: ¿es delito la producción con inteligencia artificial de contenido sexualmente explícito de menorescuando no hay una víctima real, física? ¿Qué pasa cuando las imágenes representadas son ficticias, no corresponde a ningún menor en particular?

La creación de contenido sexual infantil con inteligencia artificial: ¿Cómo funciona? ¿Es delito?

La IA generativa avanzó tanto que ya es posible crear imágenes, videos y audios hiperrealistas que simulan personas, incluso menores de edad, en situaciones de abuso sexual. Con redes generativas antagónicas (GANs) y los conocidos deepfakes, ahora se pueden producir imágenes completamente falsas pero convincentes, sin necesidad de usar de referencia una persona real y por ende una víctima física.

El principal debate sobre este tema gira en torno a la existencia o no de una víctima real. Quienes defienden el uso de IA para crear contenido sexual explícito sin involucrar a personas reales argumentan que, en ausencia de un menor físicamente afectado, no debería ser considerado un delito. Sostienen que es una forma de “simulación” que no daña a ningún niño.

Sin embargo, este tipo de contenido generado por IA, aunque no requiere la explotación física de un menor, simula actos de abuso que representan una grave amenaza a la integridad infantil y normalizan la explotación sexual. Aunque este contenido puede parecer menos dañino que las imágenes reales, sigue alimentando un mercado ilícito que incentiva el abuso y la explotación de menores.

“Las imágenes creadas con IA, en donde las representaciones de niñas, niños o adolescentes son en su totalidad ficticias, por ende no hay víctimas reales directas, no son delito porque no están incorporadas en el Código Penal”, explicó a TN Tecno Lucas Moyano, Fiscal especialista en ciberdelitos.

Este tipo de contenido fue contemplado en el Convenio sobre Ciberdelincuencia de Budapest, que Argentina aprobó e incorporó a su legislación en 2001. Pero la Ley 27411 dio sanción a la norma con reserva de los artículos 9.1.d. (tipificar como delito la adquisición para uno mismo o para otro, de pornografía infantil a través de un sistema informático), 9.2.b. y 9.2.c. (se entenderá por pornografía infantil todo material pornográfico que contenga la representación visual de una persona que parezca un menor adoptando un comportamiento sexualmente explícito e imágenes realistas qué representen a un menor adoptando un comportamiento sexualmente explícito), por entender que son supuestos que resultan incompatibles con el Código Penal.

El Fiscal afirma que ante el desarrollo de las herramientas tecnológicas y crecimiento de la creación y difusión de este tipo de imágenes es necesario realizar modificaciones legislativas que lo aborden y permitan la investigación y penalización de estas conductas ilícitas. “Este tipo de imágenes creadas por IA que no son reales, pero que aparentan serlo, como también puede ser un dibujo, fomentan el consumo de este material y son utilizadas por los delincuentes para convencer a los niños de que formen parte de actividades de abuso sexual, deben regularse en el Código Penal como conducta y establecer su penalidad”, aseguró.

El especialista citó el Protocolo Facultativo relativo a la Venta de Niños, Prostitución Infantil y la Utilización de Niños en la Pornografía, aprobado por Naciones Unidas en el año 2000. El Artículo 2 c) decreta que se entiende por pornografía infantil a toda representación, por cualquier medio, de un niño dedicado a actividades sexuales explícitas, reales o simuladas, o toda representación de las partes genitales de un niño con fines primordialmente sexuales.

Además, el Informe explicativo del convenio de Budapest en su Artículo 2 b) y c) se propone brindar protección contra comportamientos que, si bien no necesariamente causan daños al menor representado en el material, ya que podría no existir un menor real, podrían ser utilizados para alentar o seducir a niños para que participen en dichos actos y, en consecuencia, forman parte de una subcultura que favorece el maltrato de menores.

¿Cómo es el marco legal en otros países?

A nivel internacional, existe una creciente presión para que los países adapten sus leyes a las nuevas realidades tecnológicas. La Convención sobre los Derechos del Niño de las Naciones Unidas exige que los Estados protejan a los menores de todas las formas de explotación sexual. Sin embargo, la implementación de leyes específicas que criminalicen la creación de material de abuso sexual de menores generado por IA sigue siendo un desafío global.

La Unión Europea ya comenzó a discutir la necesidad de actualizar sus marcos legales para incluir el contenido generado de manera artificial, y reconoce sus leyes corren por detrás de esta tecnología. En 2020, el Parlamento Europeo adoptó una resolución que insta a los países miembros a tratar los deepfakes sexuales de menores como una forma de explotación sexual, independientemente de si las imágenes son reales o generadas por computadora.

En Estados Unidos, la ley federal prohíbe la creación, distribución y posesión de contenidos de explotación sexual de menores, pero las legislaciones de sus Estados no siempre aborda de manera explícita el contenido generado por IA y algunas cortes consideran que cuando no hay un niño real involucrado, el material podría no ser tratado bajo las mismas leyes estrictas que regulan los casos de explotación sexual de menores.

Por otro lado, Reino Unido ya empezó a adaptar sus leyes para incluir el uso de tecnologías como los deepfakes en la producción de contenido sexualmente explícito, insluso aquellos que involucran a menores. Además, fue una de las primeras naciones en considerar que el hecho de que no haya una víctima directa no exime de culpabilidad a quienes producen o distribuyen este tipo de contenido.¿

En España, el Código Penal castiga severamente los contenidos de abuso sexual de menores, pero todavía existe un debato sobre cómo interpretar el uso de la IA en este contexto. Algunos juzgados ya reconoce los materiales digitales y ficticios que simulan actos de explotación sexual de menores y aunque no involucre a niños reales, debe ser tratado con igual severidad dada su naturaleza y el daño que causa al normalizar el abuso.

 

Fuente: tntecno