Retratos que ‘hablan’: basta con tener una imagen para crear un video ‘falso’

Un laboratorio ruso de Samsung ha desarrollado algoritmos que permiten generar un video falso de una persona con tan solo una foto suya, por ejemplo una que haya publicado en su perfil de Facebook. El llamado fenómeno ‘deepfake’ es conocido desde hace ya unos años, popularizado en gran medida por los videos falsos de celebridades. Consiste en reemplazar el rostro de uno de los protagonistas por otro mediante un software de inteligencia artificial. Esta técnica requiere de amplios conjuntos de datos de imágenes, por lo que famosos como actores o políticos han estado en la punta de mira de los falsificadores. Por ejemplo, se han difundido por las redes videos pornográficos protagonizados por estrellas de Hollywood y cantantes. Los programadores del Centro del Intelecto Artificial de Samsung en Moscú han publicado un informe en el que explican su sistema de autoaprendizaje profundo, que analiza datos visuales de los rostros y movimientos de diversas personas y los aplica para insuflar vida a una imagen estática de otra persona. Los autores acompañaron el documento con un video que muestra cómo se puede animar la imagen de la Mona Lisa usando imágenes de cualquier persona. Con este método también han desarrollado videos de Albert Einstein, Marilyn Monroe, Salvador Dalí y Fiódor Dostoyevski.

Ahora puede convertir a la Mona Lisa en una persona de la vida real con una sola imagen.
Declaración sobre el propósito y efecto de la tecnología. (NB: esta declaración refleja las opiniones personales de los autores y no de sus organizaciones) Creemos que las tecnologías de telepresencia en AR, VR y otros medios deben transformar el mundo en un futuro no muy lejano. Cambiar una parte de la comunicación humana a los mundos virtual y aumentado tendrá varios efectos positivos. Esto llevará a una reducción en el viaje de larga distancia y el viaje de corta distancia. Democratizará la educación y mejorará la calidad de vida de las personas con discapacidad. Distribuirá empleos de manera más justa y uniforme en todo el mundo. Conectará mejor a familiares y amigos separados por distancia. Para lograr todos estos efectos, debemos hacer que la comunicación humana en AR y VR sea lo más realista y convincente posible, y la creación de avatares fotorrealistas es un paso (pequeño) hacia este futuro. En otras palabras, en los sistemas de telepresencia futuros, las personas deberán estar representadas por sus propias realidades, y la creación de dichos avatares debería ser fácil para los usuarios. Esta aplicación y curiosidad científica es lo que impulsa la investigación en nuestro grupo, incluido el proyecto presentado en este video. Nos damos cuenta de que nuestra tecnología puede tener un uso negativo para los llamados videos “deepfake”. Sin embargo, es importante darse cuenta de que Hollywood ha estado haciendo videos falsos (también conocidos como “efectos especiales”) durante un siglo, y las redes profundas con capacidades similares han estado disponibles durante los últimos años (vea los enlaces en el documento). Nuestro trabajo (y algunos trabajos paralelos) conducirá a la democratización de ciertas tecnologías de efectos especiales. Y la democratización de las tecnologías siempre ha tenido efectos negativos. La democratización de las herramientas de edición de sonido lleva al surgimiento de bromistas y audios falsos, la democratización de la grabación de video lleva a la aparición de imágenes tomadas sin consentimiento. En cada uno de los casos anteriores, el efecto neto de la democratización en el mundo ha sido positivo y se han desarrollado mecanismos para frenar los efectos negativos. Creemos que el caso de la tecnología de avatar neural no será diferente. Nuestra creencia está respaldada por el desarrollo continuo de herramientas para la detección de video falso y la detección de simulación de cara junto con el cambio continuo de privacidad y seguridad de datos en las principales IT companies.

Leave comment

Your email address will not be published. Required fields are marked with *.

Ir a la barra de herramientas