A fines del 2020 millones de coreanos estuvieron atentos al noticiero de un importante canal de televisión, no porque esperaran una noticia especial relativa al coronavirus, sino porque habían sido advertidos de que la conocida conductora Kim Joo-Ha sería reemplazada por ella misma. Es decir, por una réplica generada digitalmente. En una encuesta realizada posteriormente, los televidentes se mostraron sorprendidos de lo bien logrado que fue el “fake” y muchos comentaron que temían que la auténtica conductora perdiera su trabajo.
Debido al éxito obtenido el canal de televisión MBN anunció que seguiría utilizando esta tecnología de inteligencia artificial en su noticiero diario. La empresa que realizó el deepfake anunciado, Moneybrain, dijo que ya hay medios de comunicación interesados en China y en Estados Unidos.
Los deepfakes, que se utilizan principalmente como un juego en las aplicaciones más descargadas actualmente en el mundo entero, representan un verdadero peligro en lo que respecta a comunicación porque en muy poco tiempo va a ser prácticamente imposible discernir entre una noticia real y una falsa. Y es por eso que hay una gran discusión en el mundo político sobre qué hacer para poder controlar la difusión de informaciones falsas.
En 2018 un video en el que Obama insultaba a Trump, sorprendió a los estadounidenses. Se trataba de un deepfake realizado por el director de cine Jordan Peele y era fácilmente detectable como un “fake”.
Más recientemente, a fines de 2020, el canal 4 de Inglaterra realizó un deepfake de la reina en navidad:
El video es muy divertido pero no pretendió ser realista.
Sin embargo un deepfake realizado en febrero de este año donde se ve a un Tom Cruise alcoholizado se ve aterradoramente real:
Lo cierto es que esta tecnología ya se está utilizando comercialmente y se la llama “videos generados por inteligencia artificial”, para evitar la connotación negativa que tiene la expresión deepfake.
La inglesa Synthesia es una de las empresas pioneras en este rubro, que crea videos de capacitación corporativa para empresas. Su principal clienta es WPP, una de las agencias de publicidad más grandes del planeta.
Hacer un video corporativo con Synthesia es relativamente sencillo. Sólo hay que escoger entre una serie de avatares (personas construidas digitalmente con nombres inventados), elegir el fondo, luego elegir el tipo de voz que se quiere y a continuación tipear el texto que será recitado por el conductor o la conductora. Esto representa un ahorro de tiempo y dinero considerable. Grabar el video en más de un idioma sólo requiere de unos minutos (sólo hay que escoger el idioma dentro de una lista), mientras que en un video con personas reales implicaría cambiar al protagonista y grabar todo de nuevo. Días de trabajo.
La discusión también se da en el mundo de los negocios. Debido al alto potencial desestabilizador que tienen las deepfakes algunos inversionistas se niegan a invertir en esta tecnología. Mientras que otros que sí invierten alegan que se preocupan mucho por “la ética”. Es decir, aseguran que no pretenden bajo ningún concepto engañar al consumidor.
Sandra Wachter , especialista en Inteligencia Artificial de la Universidad de Oxford, sostiene que no debería temerse esta tecnología. A su parecer sólo es necesario crear leyes que castiguen el mal uso de los videos creados con inteligencia artificial. Es decir, los casos en que se detecten discursos que fomenten el odio racial o lo que se conoce como pornografía de venganza. Pero según Wachter no se debería prohibir de ninguna manera cuando el video generado por inteligencia artificial se usa como sátira o simple diversión, ya que sería limitar la libertad de expresión.
Una forma de control sería etiquetar los videos generados por IA así como se etiqueta actualmente los productos con gluten.
En Corea del Sur, que es uno de los países tecnológicamente más avanzados, el uso del deepfake en la industria del porno ya ha provocado protestas masivas e incluso le creación de una ley que estipula penas de hasta 5 años de prisión para aquellos que realizan deepfakes con personas reales. Y las penas aumentan a 7 años si el video se hizo con fines comerciales.
Wachter sostiene que esta tecnología tiene una gran aplicación tanto a nivel comercial como educativo y su uso tendrá un aumento exponencial en los próximos años.
No cabe duda de que se trata de una tecnología absolutamente disruptiva. Y se desconoce hasta dónde se puede llegar con este tipo de tecnologías. De hecho, el próximo paso en el que ya se está trabajando es el de crear videos de personas fallecidas. Pronto podríamos tener un nuevo discurso de Margarert Tatcher o de Fidel Castro (por supuesto resumido, ya que los discursos de Fidel Castro duraban varias horas). Y también podré hacer un video de mi abuelo fallecido y compartirlo con el grupo de whatsapp de mi familia.
De hecho, en Hollywood están muy entusiasmados con esta tecnología que les permitiría hacer películas con viejas estrellas ya fallecidas y también rejuvenecer sin necesidad de maquillaje a las que aún están en actividad. Representaría un ahorro inmenso en salario de actores y también un aumento de la taquilla.
Según el Foro Económico Mundial, la realización de fakevideos crece e un ritmo de 900% anual. En 2019 fueron cerca de 15.000 y en 2020 alcanzaron los 140.000.
Así como crece velozmente el uso comercial de las deepfakes, también crece la cantidad de starts up que se dedican exclusivamente a la detección de videos producidos por inteligencia artificial. Actualmente hay centenares de empresas dedicadas a esta actividad. Sin embargo una reciente investigación de la Universidad de California determinó que los cazadores de deepfakes pueden ser fácilmente engañados, insertando “inputs” llamados “ejemplos contradictorios” en cada cuadro de un video.