Estafadores clonan voces con inteligencia artificial para robar dinero
Un estudio asegura que el 77% de las personas afectadas terminan enviando dinero a los estafadores.
Una nueva forma de estafa está causando estragos a nivel mundial y ya hay casos en Argentina: la clonación de voces mediante Inteligencia Artificial (IA) para enviar mensajes a través de WhatsApp, solicitando dinero u otras acciones fraudulentas.
Un relevamiento realizado en el país informa que casi un 80% de personas caen en la trampa. La estafa es conocida como “vishing” y está siendo reportada en todo el país. Según indicó Noticias Argentina, son situaciones difíciles de detener para las autoridades y los usuarios afectados.
En la ciudad de Mar del Plata, el abogado especializado en ciberdelitos, Rodrigo Bionda, ofreció consejos para detectar estas complejas maniobras fraudulentas vinculadas a la IA. “Debemos comenzar a desconfiar de todo lo que vemos y escuchamos”, advirtió el especialista.
R. Bionda también enfatizó la importancia de no atender llamadas provenientes de números desconocidos, especialmente si provienen de India. “Si la grabación dura medio minuto, sería prácticamente imposible darse cuenta si es real o no”, detalló.
“Hice una prueba de videollamada con una versión paga de inteligencia artificial y es imposible darse cuenta si estamos frente a la persona original”, explicó el abogado.
El término “vishing” deriva de la combinación de las palabras “voice” (voz) y “phishing”, y se refiere a un tipo de amenaza que implica una llamada telefónica fraudulenta combinada con información previamente obtenida en internet.
Las estafas, que utilizan voces clonadas por IA, representan un tipo de ciberataque que suplanta la identidad de familiares o amigos para engañar a las víctimas.
Según una encuesta realizada por McAfee, el 77% de las personas afectadas por este tipo de fraude terminaron enviando dinero a los estafadores. Esto demuestra la efectividad de estas tácticas fraudulentas.