El avance de la tecnología trajo aparejado un aumento de las estafas cibernéticas, que ganan protagonismo en redes sociales como Instagram, Facebook o WhatsApp, donde los delincuentes fácilmente pueden encubrir su identidad y atacar las cuentas bancarias de sus víctimas.
La nueva técnica consiste en utilizar la tecnología de "deep fake" para generar audios indistinguibles de los de la fuente original. Es decir, usando una muestra de audio real de una persona, un programa tecnológico puede generar piezas de audio nuevas para -esencialmente- hacerle decir a alguien algo que no dijo. Estas tecnologías vienen de la mano de la nueva generación de motores de IA que son capaces de emular cualquier voz humana a través de un pequeño entrenamiento (ese es el caso del producto VALL-E, de Microsoft).
Si bien la tecnología tiene otras aplicaciones, los ciberdelincuentes lo están usando para suplanta la identidad de alguien de confianza -un niño, un amante, un amigo- y convencer a la víctima de que envíe dinero porque está en un problema importante.
Para ello, solo necesitan audios cortos de los seres queridos de las víctimas y realizar una llamada usando el sistema para pedir dinero urgente. Es por esto que el robo de datos privados tomó tanta importancia en los últimos años: son un insumo para nuevos modelos de negocio fraudulentos.
Momento de la estafa
La estafa surge cuando se usa esa voz para generar un audio donde se pide dinero a una víctima que, al escuchar la voz familiar, va a acceder al pedido. De la misma manera, se pueden generar secuestros virtuales.
Ante un escenario de este estilo, lo recomendable es que quien recibe una llamada de alguien querido que pide dinero con urgencia, trata de poner esa llamada en espera e intenta llamar a esa persona por separado. El número puede parecer de la persona, pero los estafadores pueden haberlo suplantado también por lo que se recomienda contactar por vías alternativas.