¿Se puede clonar una voz? Qué dice un experto en ciberseguridad

El escándalo por las presuntas coimas en la ANDIS abrió el debate sobre la autenticidad de los audios que salpican a Diego Spagnuolo y Karina Milei. En diálogo con LT10, el especialista Rodrigo Álvarez explicó cómo funciona la clonación de voces con inteligencia artificial y qué herramientas tiene la justicia para detectarlo.

En el marco del escándalo por supuestas coimas en la Agencia Nacional de Discapacidad (ANDIS), que involucra a su extitular Diego Spagnuolo y también a Karina Milei, Secretaria General de la Presidencia, surgieron en los últimos días audios comprometedores cuya veracidad es ahora objeto de investigación judicial.

Ante la posibilidad de que se trate de material manipulado o directamente creado con inteligencia artificial, LT10 entrevistó a Rodrigo Álvarez, especialista en ciberseguridad, quien explicó que sí es posible clonar una voz con IA, pero también es posible detectar si se trata de un audio falso.

“La respuesta corta es sí, se puede clonar claramente una voz”, afirmó el experto. Y aclaró: “Con más de 30 segundos de una conversación ya podría imitar la voz en cuanto a entonación, tono y ritmo”.

Qué dicen los audios de Karina Milei en Casa Rosada

Según Álvarez, las herramientas para clonar voces han mejorado notablemente y están al alcance de muchas personas, aunque las más eficaces suelen ser de pago. “Con unas 15 palabras ya se puede sacar la entonación; con más contenido se mejora el resultado”, detalló.

Sin embargo, la tecnología no juega solo a favor del engaño. También existen métodos para identificar estas manipulaciones. “Todo lo que está generado con inteligencia artificial tiene su lado inverso, que sería la ciencia criminalística”, explicó, y señaló que con “análisis espectrográfico, biometría de voz y el estudio de metadatos, se puede determinar si un audio fue generado por IA”.

Respecto a los audios atribuidos a Spagnuolo, el especialista fue cauto. Dijo no conocer los informes oficiales pero explicó cómo se suelen hacer estas pericias: “La justicia puede acceder a software y peritos capacitados. Con un análisis espectrográfico se pueden identificar anomalías en las frecuencias, las pausas o la entonación. Eso permite saber si el audio tiene un origen natural o fue generado artificialmente”.

También aclaró que el entorno en el que se graba un audio da pistas clave: “Las voces clonadas con IA suelen tener un fondo metálico o un eco que no suele estar presente en una conversación real, sobre todo en lugares como un bar, que es donde se escucha uno de estos audios”.

Por último, Álvarez dejó en claro que existen herramientas académicas y periciales que permiten confirmar si una voz es auténtica. “La justicia federal seguramente cuente con estos recursos, y si no, puede contratar peritos que lo determinen”, concluyó.

Audio: Escucha a Rodrigo Alvarez

Su navegador no soporta audio HTML