Tecnología “deepfake”: Con esta herramienta solo debes escribir lo que quieras que alguien diga, “para que lo diga”
Científicos de la Universidad de Stanford, el Max Planck Institute for Informatics, la Universidad de Princeton y Adobe Research presentaron un software que permite a los usuarios editar el texto transcrito de una alocución para agregar, eliminar o cambiar las palabras de una persona en video.
En la presentación, que muestra los fragmentos originales de las frases y luego el trabajo del programa informático en el discurso, se aprecia el cambio, por ejemplo, cuando uno de los participantes dice: “I love the smell of napalm in the morning”—Me encanta el olor del napalm por la mañana—, y luego de aplicado el software: “I love the smell of french toast in the morning”—Me encanta el olor de las tostadas francesas por la mañana.
Este nuevo programa —que no se comercializa todavía— es una de las novedades de la tecnología deepfake, que revivió a La Mona Lisa, Marylin Monroe, Salvador Dalí y Albert Einstein, pero que desde hace un tiempo también dificulta cada vez más distinguir en internet qué es falso, y plantea un serio problema ético, cuando ya ha sido utilizada para desacreditar a figuras públicas importantes.
Nancy Pelosi, presidenta de la Cámara de Representantes, fue una de ellas. Rudy Giulliani, abogado de Donald Trump, compartió en Twitter un video modificado de la demócrata, en el que aparecía incoherente, tartamudeando y aparentemente ebria.
La representación fue vista por más de 2,4 millones de personas antes de que Facebook lo retirara de su fuente original, la cuenta de Political Watch Dog, por violar sus términos y condiciones.
Otro video relacionado con los deepfakes fue el difundido por Jordan Peele —director y guionista de cine, ganador de un Óscar—, quien imitó la voz del expresidente estadounidense Barack Obama diciéndole “completo idiota” a Trump, y la superpuso a un video original, para dar a conocer los riesgos políticos que podría tener esta tendencia.
Para crear estos videos el software aísla los fonemas que dice la persona en el discurso, y los combina con los visemas —las expresiones faciales que corresponden a cada sonido. Luego, crea un modelo en 3D de la parte inferior del rostro a partir del video original.
Los videos falsos producidos fueron vistos por un grupo de 138 voluntarios, de los cuales el 60 por ciento pensó que eran reales. El 80 por ciento afirmó que los cortes sin editar examinados eran legítimos, aunque los investigadores aclararon que esto tal vez se deba a que los participantes de la prueba sabían el propósito del experimento y podrían haber sido mediados por esto.
Hasta el momento los algoritmos usados solo funcionan con primeros planos, es decir, en videos donde solo se filme el busto de la persona, y requieren de 40 minutos de datos audiovisuales. No puede cambiarse el tono de la voz de la persona, y tampoco puede haber algún obstáculo visual en la grabación —que haya un saludo con las manos, por ejemplo—, porque el programa puede dejar de funcionar.
Los creadores dicen reconocen que personas con malas intenciones “pueden usar esta tecnología para falsificar declaraciones personales y calumniar a personas importantes”, y sugieren como remedio que, para prevenir cualquier confusión, este tipo de videos debería ser presentado como tal, a través de una marca de agua o con un contexto previamente creado donde el público sepa que es falso.
(Con información de The Verge e Infobae)