De Lionel Messi a Guillermo Francella: cómo se hacen los deepfakes

Mira de que se trata la nueva aplicación que pone cualquier rostro en videos

La tecnología que permite manipular imágenes y videos con resultados ultrarrealistas avanza con una velocidad imparable en todo el mundo, generando admiración y preocupación. En la Argentina un grupo de artistas digitales están a la vanguardia de este movimiento de deepfakes , que encontró en las redes sociales una vidriera ideal para mostrar sus creaciones, que incluyen desde clips de Lionel Messi cantando como Ricardo Montaner hasta Ricardo Fort protagonizando Iron Man , Guillermo Francella en el cuerpo del locutor Norbert Degoas o Cristina Fernández de Kirchner bailando como Lady Gaga .

 
 
 
 
 
 
 
 
 
 
 
 
 

Messi le canta al Barcelona #messi #lionelmessi #montaner #messicanta #barcelona #barca #barsa #deepfake #liomessi #deepfakes #deepfakesar

Una publicación compartida de @ deepfakesar el

Se conocen como deepfake, una combinación de las palabras en inglés con las que se hace referencia a los algoritmos de "aprendizaje profundo" y a su carácter de "falso", a las diferentes técnicas de inteligencia artificial que permiten editar videos para crear escenas que no que existieron. Su variante actual más conocida son aquellos clips en los que se superponen rostros de celebridades o políticos.

Mientras que en los Estados Unidos son comunes las creaciones que tienen a Nicolas Cage o Donald Trump como protagonistas, en los últimos meses comenzó a circular en Twitter, Instagram y Facebook el trabajo de varios representantes argentinos.

Uno de ellos es Sebastián Vaggi , el programador autodidacta detrás de la cuenta @DeepFakesAr , que se volvió conocido por su versión de Joker con el rostro de Diego Peretti .

"Hoy lo veo y creo que lo haría de nuevo con mayor calidad, pero también aprendí que para pegarla en las redes sociales a veces no basta sólo con el contenido, sino también con cierto timing", le dijo a LA NACION este porteño de 37 años que trabaja en la web desde hace dos décadas, habiendo creado desde portales de contenidos hasta una agencia de publicidad digital.

Gracias al aislamiento preventivo, social y obligatorio, Vaggi encontró tiempo para dedicarse a estudiar más sobre una movida que había visto crecer en el exterior y que le interesaba: "Para mí la programación siempre fue una herramienta para dar vida a las ideas que se me iban ocurriendo. Yo estaba fascinado con los deepfakes, pero nunca me había puesto a investigar. Cuando empezó la pandemia me encontré con el tiempo libre que me faltaba y una vez que hice mis primeras armas, se me ocurrió que podía hacer lo que tanto se veía afuera, pero con actores de acá".

Así, Vaggi empezó a publicar pequeños fragmentos de escenas clásicas o muy reconocibles del cine con un toque local. "Es la charla que suele aparecer cuando uno ve con amigos una película y ve parecidos locales, ¿no?", acotó divertido. De este modo creó una versión de El Señor de los Anillos con Darío Lopilato y un Willy Wonka con Marley .

En el caso de @NoSoyTutanka, un diseñador gráfico de 30 años que fue parte del grupo de intervención urbana Surdelta y que es docente de diseño en la Universidad de Buenos Aires, sus creaciones mezclan cultura popular argentina, memes de Internet y política. En ellas Cristina Fernández de Kirchner se vuelve Jennifer Lopez en el congreso Nacional o en Daenerys Targaryen, la madre de los dragos de Game of Thrones:

 
 
 
 
 
 
 
 
 
 
 
 
 

Senado Halftime show

Una publicación compartida de ᴛᴜᴛᴀɴᴋᴀ 🏺 (@nosoytutanka) el

A pesar de ser breves, estos deepfakes pueden llevar entre dos días y dos semanas de desarrollo, dependiendo de diferentes factores que incluyen la calidad de los clips originales y la rapidez con la que los algoritmos aprenden sobre lo que están viendo. A veces la idea es tan coyuntural que requiere rapidez y la aparición de material inédito del recordado locutor bonaerense Norberto Degoas hizo que Vaggi hiciera una versión con Guillermo Francella en un día y medio.

Cómo se hacen los deepfakes

Existen distintas tecnologías para hacer deepfakes. El proceso varía en cada caso, pero siempre comienza con la recopilación de muchas caras para usar de fuente (source), es decir, de quien quedará en el clip reemplazando el rostro original. Luego, encontrar la mejor calidad posible del video sobre el cual se lo irá a imprimir. "Yo uso el programa Deepface Lab, que reúne varias herramientas, toma todos los frames del video, le imprime las caras source y luego chequeo si quedaron bien. En ocasiones, si hay errores, se deben alinear manualmente. Y si tengo tiempo uso más programas de posproducción para sumar detalles", detalló Vaggi.

Estos pasos hacen que los mejores resultados sean aquellos que surgen de clips en alta calidad, aunque el programador reconoce que en las últimas semanas se encontró con programas que le permitieron mejorar y utilizar videos viejos de YouTube, por ejemplo, que fueron subidos en baja resolución. "Con este proceso pude hacer cosas con Roberto Carnaghi, por ejemplo, que tienen videos sacados de la televisión con una calidad mediocre"

Junto con otros representantes locales como Tomás García o Mathias Gatti, quienes le imprimen sus propias búsquedas e intereses a sus creadores, estos artistas digitales comparten sus experiencias y conocimientos técnicos para sortear obstáculos y crear mejores clips. "Gracias a grupos de chats en la plataforma Discord estamos en contacto con algunos de los mejores artistas del mundo y ahí no parás de aprender. Yo entré sin saber cómo se llamaban algunas cosas, por ejemplo, y ahí todos te ayudan si necesitás algo. Reconozco que mis primeros deepfakes fueron desastrosos y ahora están mejor, pero estamos todos aprendiendo", puntualizó.

Si bien uno de los temores más difundidos con este tipo de tecnología es la manipulación para fines delictivos, como engañar a las personas, por ahora no parece ser uno de los temas en agenda de estos creadores. "Nadie se me acercó para pedirme que haga un trabajo así y entiendo que a los otros chicos tampoco les pasó. Alguna vez se ha comentado el tema en los chats que tenemos con creadores de contenidos de todo el mundo, pero es porque a veces les piden cosas, pero más vinculadas con el humor; si no compartís el código no se entiende y por eso nadie se quiere sumar", explicó.

Con la mejora incesante en la calidad de estas creaciones, es difícil predecir en cuánto tiempo contaremos con deepfakes indistinguibles de los clips reales. "Yo no dejo de sorprenderme de cómo mejoraron los programas en los últimos meses y creo que no estamos lejos del día en que no podamos identificar con certeza qué es fake y qué es real sólo con los ojos, sobre todo en las redes sociales, donde los videos no tienen tanta resolución. -advierte Vaggi- Pero hoy por hoy creo que el problema no es tanto de las creaciones, sino del ojo del que lo mira: a veces la gente simplemente ve lo que quiere ver".