EsHowto >> Electrónica >> Tecnología del futuro

Deepfakes: Los videos falsos con IA que desafían nuestra percepción de la realidad

Deepfakes: Los videos falsos con IA que desafían nuestra percepción de la realidad Si la tecnología continúa su avance actual, pronto será imposible distinguir videos falsos generados por IA.

En su etapa actual, los deepfakes —término general para videos manipulados con inteligencia artificial (IA) y aprendizaje profundo— aún conservan un matiz inquietante, aunque cada vez más sutil.

No se trata solo de videos extraños o poco naturales producidos por estos softwares sofisticados, ni únicamente del dilema ético de alterar imágenes originales. Se trata fundamentalmente de la erosión de la confianza en lo que vemos: ¿Es esa foto auténtica? ¿Ese video real? ¿Coincide ese rostro con ese cuerpo o esas palabras con esa expresión?

¿Puede esa persona realmente bailar así?

La informática detrás de los deepfakes

A fines de 2017, un usuario de Reddit conocido como 'Deepfakes' popularizó videos de intercambio de caras en pornografía, según Know Your Meme, desatando una oleada de creaciones similares. Lanzó la app FakeApp, y surgieron memes virales: desde Nicolas Cage en el cuerpo de Amy Adams hasta un convincente Jordan Peele como Barack Obama advirtiendo sobre los peligros de la tecnología (video NSFW que culmina en un "¡Quédense despiertos, bi$%*!").

Recientemente, un TikToker belga, Chris Ume, experto en efectos visuales, creó videos hiperrealistas de Tom Cruise jugando golf, elevando el realismo a nuevos niveles.

La tecnología subyacente es compleja: algoritmos como redes generativas antagónicas (GAN) y redes neuronales profundas analizan videos cuadro por cuadro, aprendiendo rasgos faciales, movimientos y expresiones para transferirlos con precisión. Mientras los deepfakes básicos intercambian caras, los avanzados manejan rotaciones 3D de cabeza, gestos sutiles e incluso movimientos corporales.

A mayor datos procesados, más realistas resultan los videos.

Más allá de las falsificaciones profundas

No todas las ediciones de video con IA son deepfakes. Investigadores de la Universidad de California en Berkeley desarrollan técnicas como 'Everybody Dance Now', que transfieren movimientos de un bailarín profesional a un aficionado, permitiendo 'bailar' como un experto.

Tinghui Zhou, estudiante de posgrado en Berkeley y coautora, explica: "Los humanos detectamos fallos en sombras faciales, arrugas y ojos. La IA aún no captura todos esos detalles con perfección".

Otro avance, 'Deep Video Portraits', usa un actor 'fuente' para manipular expresiones de un 'objetivo', como hacer que Obama imite gestos. Presentado en 2018 en una conferencia de gráficos en Vancouver, promete revolucionar Hollywood, reduciendo costos y tiempos en CGI.

Caminando por la cuerda floja ética

Los riesgos son evidentes: deepfakes pornográficos no consentidos de celebridades y potencial para 'noticias falsas'. Plataformas como Reddit, Pornhub, Tumblr y Twitter han prohibido contenidos deepfake explícitos.

Michael Zollhöfer, de Stanford, advierte: "Así como cuestionamos fotos retocadas, debemos ser críticos con videos sin verificación de origen".

Expertos proponen detectores de IA, marcas de agua invisibles y mayor conciencia. Zhou enfatiza usos positivos, como entrenamiento para bailarines, pero insiste en prevenir abusos.

Lo que nos espera

La IA avanza rápidamente, superando imperfecciones y amenazando la confianza en medios visuales. Ejemplos como el video manipulado de Nancy Pelosi en 2019 —alterado simplemente ralentizándolo— muestran riesgos electorales accesibles sin deepfakes complejos. Hany Farid, de Berkeley, lo llama "un canario en la mina".

Publicado originalmente: 5 de septiembre de 2018