¿Qué son los deepfakes y cómo se crean?

Tecnologías deepfake: qué son, qué hacen y cómo se fabrican

Un periodista ve un video manipulado con inteligencia artificial para engañar potencialmente a los espectadores, o "deepfake".  en su redacción en Washington, DC

Una creciente inquietud se ha asentado en torno a la evolución de las tecnologías deepfake que permiten crear pruebas de escenas que nunca sucedieron. Las celebridades se han convertido en las estrellas involuntarias de la pornografía, y los políticos han aparecido en videos que parecen decir palabras que en realidad nunca dijeron .

Las preocupaciones sobre las falsificaciones profundas han llevado a una proliferación de contramedidas. Las nuevas leyes tienen como objetivo evitar que la gente las elabore y distribuya. A principios de este año, las plataformas de redes sociales como Facebook y Twitter prohibieron los deepfakes en sus redes. Y las conferencias de gráficos y visión por computadora están repletas de presentaciones que describen métodos para defenderse de ellas.

Entonces, ¿qué es exactamente un deepfake y por qué la gente está tan preocupada por ellos?

¿Qué es un deepfake?

La tecnología Deepfake puede unir sin problemas a cualquier persona del mundo en un video o una foto en la que nunca participaron. Tales capacidades han existido durante décadas; así es como resucitó el difunto actor Paul Walker para Fast & Furious 7 . Pero solía llevar un año a estudios completos llenos de expertos para crear estos efectos. Ahora, las tecnologías deepfake (nuevos sistemas automáticos de gráficos por computadora o de aprendizaje automático) pueden sintetizar imágenes y videos mucho más rápidamente.

Sin embargo, existe mucha confusión en torno al término “deepfake”, y los investigadores de la visión por computadora y los gráficos están unidos en su odio por la palabra. Se ha convertido en un recurso general para describir todo, desde videos de última generación generados por IA hasta cualquier imagen que parezca potencialmente fraudulenta.

Mucho de lo que se llama deepfake simplemente no lo es: por ejemplo,  un controvertido video de “grillos” del debate primario demócrata de Estados Unidos publicado por la campaña del ex candidato presidencial Michael Bloomberg se hizo con habilidades estándar de edición de video. Los deepfakes no jugaron ningún papel.

Cómo se crean los deepfakes

El ingrediente principal de los deepfakes es el Deep Learning (aprendizaje profundo), que ha hecho posible producir deepfakes mucho más rápido a un coste menor. Para hacer un video deepfake de alguien, un creador primero entrenaría una red neuronal en muchas horas de metraje de video real de la persona para darle una “comprensión” realista de cómo se ve desde muchos ángulos y bajo diferente iluminación. Luego combinarían la red entrenada con técnicas de gráficos por computadora para superponer una copia de la persona a un actor diferente.

Si bien la adición de IA hace que el proceso sea más rápido de lo que hubiera sido antes, todavía se necesita tiempo para que este proceso produzca un compuesto creíble que coloque a una persona en una situación completamente ficticia. El creador también debe modificar manualmente muchos de los parámetros del programa entrenado para evitar señales y artefactos reveladores en la imagen. El proceso no es sencillo.

Mucha gente asume que una clase de algoritmos de aprendizaje profundo llamados redes generativas adversarias (GAN) serán el motor principal del desarrollo de deepfakes en el futuro. Las caras generadas por GAN son casi imposibles de distinguir de las caras reales. La primera auditoría del panorama deepfake dedicó una sección completa a las GAN, lo que sugiere que harán posible que cualquiera pueda crear deepfakes sofisticados.

Sin embargo, el foco de atención sobre esta técnica en particular ha sido engañoso, dice Siwei Lyu de SUNY Buffalo. “La mayoría de los videos deepfake en estos días se generan mediante algoritmos en los que las GAN no juegan un papel muy destacado”, dice.

Es difícil trabajar con las GAN y requieren una gran cantidad de datos de entrenamiento. Los modelos tardan más en generar las imágenes que con otras técnicas. Y, lo que es más importante, los modelos GAN son buenos para sintetizar imágenes, pero no para hacer videos. Tienen dificultades para preservar la coherencia temporal o para mantener la misma imagen alineada de un fotograma al siguiente.

Los “deepfakes” de audio más conocidos tampoco utilizan GAN. Cuando la empresa canadiense de inteligencia artificial Dessa (ahora propiedad de Square) utilizó la voz del presentador del programa de entrevistas Joe Rogan para pronunciar oraciones que nunca dijo, las GAN no participaron. De hecho, la mayor parte de los deepfakes actuales se fabrican utilizando una constelación de algoritmos de IA y no IA.

¿Quién creó los deepfakes?

Los ejemplos de deepfake más impresionantes tienden a salir de los laboratorios de la universidad y de las startups que siembran: un video ampliamente difundido que muestra a la estrella del fútbol David Beckham hablando con fluidez en nueve idiomas , de los cuales solo uno habla, es una versión de código desarrollado en Technical Universidad de Munich, en Alemania.

Y los investigadores del MIT han publicado un video asombroso del ex presidente de los Estados Unidos, Richard Nixon, pronunciando el discurso alternativo que había preparado para la nación  si el Apolo 11 fallara .

Pero estos no son los deepfakes que preocupan tanto a gobiernos y académicos. Los deepfakes no tienen que ser de calidad de laboratorio o de alta tecnología para tener un efecto destructivo en el tejido social, como lo ilustran los deepfakes pornográficos no consensuales y otras formas problemáticas.

De hecho, los deepfakes obtienen su nombre del ejemplo de ur del género, que fue creado en 2017 por un usuario de Reddit que se hacía llamar r / deepfakes, que utilizó la biblioteca de aprendizaje profundo de código abierto de Google para cambiar las caras de los artistas porno actrices. Los códigos dentro de los deepfakes de bricolaje que se encuentran hoy en día en la naturaleza descienden en su mayoría de este código original, y aunque algunos podrían considerarse experimentos mentales entretenidos, ninguno puede considerarse convincente.

Entonces, ¿por qué están todos tan preocupados? “La tecnología siempre mejora. Así es como funciona ”, dice Hany Farid , experto en análisis forense digital de la Universidad de California, Berkeley. No hay consenso en la comunidad de investigadores sobre cuándo las técnicas de bricolaje se perfeccionarán lo suficiente como para representar una verdadera amenaza; las predicciones varían enormemente, de 2 a 10 años. Pero eventualmente, los expertos coinciden en que cualquiera podrá abrir una aplicación en su teléfono inteligente y producir deepfakes realistas de cualquier otra persona.

¿Para qué se utilizan los deepfakes?

La amenaza más clara que plantean los deepfakes en este momento es para las mujeres: la pornografía no consensual representa el 96 por ciento de los deepfakes actualmente desplegados en Internet. La mayoría de las celebridades apuntan, pero hay un número creciente de informes sobre el uso de deepfakes para crear pornografía de venganza falsa, dice Henry Ajder , jefe de investigación de la firma de detección Deeptrace , en Ámsterdam.

Pero las mujeres no serán los únicos objetivos de la intimidación. Los deepfakes pueden permitir el acoso en general, ya sea en las escuelas o en el lugar de trabajo, ya que cualquiera puede colocar a las personas en situaciones ridículas, peligrosas o comprometedoras.

Las corporaciones se preocupan por el papel que podrían jugar los deepfakes en las estafas de sobrealimentación. Ha habido informes no confirmados de uso de audio deepfake en estafas de directores ejecutivos para engañar a los empleados para que envíen dinero a los estafadores. La extorsión podría convertirse en un caso de uso importante. El fraude de identidad fue la principal preocupación con respecto a las falsificaciones profundas para más de las tres cuartas partes de los encuestados en una encuesta de la industria de la ciberseguridad realizada por la firma biométrica  iProov . Las principales preocupaciones de los encuestados eran que los deepfakes se utilizarían para realizar pagos en línea fraudulentos y piratear servicios bancarios personales.

Para los gobiernos, el mayor temor es que los deepfakes representen un peligro para la democracia. Si puede hacer que una celebridad femenina aparezca en un video porno, puede hacer lo mismo con un político que se postula para la reelección. En 2018, apareció un video de Jo ã o Doria, el gobernador de S ã o Paulo, Brasil, que está casado y participa en una orgía. Insistió en que era un deepfake. Ha habido otros ejemplos. En 2018, el presidente de Gabón, Ali Bongo, quien presumiblemente se encontraba enfermo durante mucho tiempo, apareció en un video sospechoso para tranquilizar a la población, lo que provocó un intento de golpe de Estado.

La ambigüedad en torno a estos casos no confirmados apunta al mayor peligro de los deepfakes, sean cuales sean sus capacidades actuales: el dividendo del mentiroso , que es una forma elegante de decir que la existencia misma de los deepfakes proporciona cobertura para que cualquiera haga lo que quiera, porque puede descartar cualquier evidencia de irregularidad como un deepfake. Es una negación plausible de talla única. “Eso es algo que está empezando a ver absolutamente: el dividendo del mentiroso se está utilizando como una forma de salir de problemas”, dice Farid.

¿Cómo detenemos los deepfakes maliciosos?

Varias leyes estadounidenses sobre deepfakes entraron en vigor durante el año pasado. Los estados están introduciendo proyectos de ley para criminalizar la pornografía deepfake y prohibir el uso de deepfakes en el contexto de una elección. Texas, Virginia y California han criminalizado la pornografía deepfake y, en diciembre, el presidente firmó la primera ley federal como parte de la Ley de Autorización de Defensa Nacional. Pero estas nuevas leyes solo ayudan cuando un perpetrador vive en una de esas jurisdicciones.

Fuera de Estados Unidos, sin embargo, los únicos países que toman acciones específicas para prohibir el engaño son China y Corea del Sur. En el Reino Unido, la comisión legal está revisando las leyes existentes para el porno de venganza con miras a abordar las diferentes formas de crear deepfakes. Sin embargo, la Unión Europea no parece ver esto como un problema inminente en comparación con otros tipos de desinformación en línea.

Entonces, aunque Estados Unidos está liderando el grupo, hay poca evidencia de que las leyes que se están presentando sean aplicables o tengan el énfasis correcto.

Y aunque muchos laboratorios de investigación han desarrollado formas novedosas de identificar y detectar videos manipulados (incorporando marcas de agua o una cadena de bloques , por ejemplo), es difícil hacer detectores de deepfake que no se jueguen de inmediato para crear deepfakes más convincentes.

Aún así, las empresas de tecnología lo están intentando. Facebook reclutó investigadores de Berkeley, Oxford y otras instituciones para construir un detector de deepfake y ayudarlo a hacer cumplir su nueva prohibición . Twitter también realizó grandes cambios en sus políticas, fue un paso más allá y, según se informa, planificó formas de etiquetar cualquier deepfakes que no se elimine por completo. Y YouTube reiteró en febrero que no permitirá videos deepfake relacionados con las elecciones estadounidenses, los procedimientos de votación o el censo estadounidense de 2020.

Pero ¿qué pasa con los deepfakes fuera de estos jardines amurallados? Dos programas, llamados Reality Defender y Deeptrace, tienen como objetivo mantener los deepfakes fuera de tu vida. Deeptrace funciona en una API que actuará como un filtro híbrido antivirus / spam, preseleccionando los medios entrantes y desviando manipulaciones obvias a una zona de cuarentena, al igual que Gmail desvía automáticamente el spam antes de que llegue a su bandeja de entrada. Reality Defender, una plataforma en construcción por la empresa AI Foundation , también espera etiquetar y empaquetar imágenes y videos manipulados antes de que puedan causar algún daño. “Creemos que es realmente injusto poner la responsabilidad de autenticar los medios en el individuo”, dice Adjer.