Videos 'deep fakes' en los que el rostro de la persona es cambiado digitalmente.
Lectura

‘Deep fakes’: así se hacen los videos falsos más reales de internet

Con una aplicación gratuita, unas horas de tiempo y un poco de experiencia, es posible hacer videos que muestren a una persona haciendo algo que, en realidad, nunca ha hecho.

Créditos: 
Geralt / Pixabay
José Luis Peñarredonda

Todo parecía normal. El ex presidente de Estados Unidos Barack Obama hablaba frente a una cámara de algún tema político, como solía hacerlo. Su voz y sus gestos sobrios eran los mismos de siempre. Pero era un video falso.

Fue creado por investigadores de la Universidad de Washington, que buscaban entender cómo sincronizar los labios de un personaje con una grabación de la voz de esa misma persona. No lo hacían para darles herramientas a los mentirosos profesionales, sino porque tenían un interés académico genuino en solucionar un reto que hace años inquieta a los expertos en inteligencia artificial.

La dificultad principal, según el artículo académico que publicaron los investigadores, radica en que “los seres humanos somos extremadamente sensibles a los movimientos sutiles en la región de la boca”. Los intentos anteriores, según aseguran, no se veían lo suficientemente naturales como para ser realistas.

Este desarrollo podría facilitar algunas tareas de edición de video, o ayudarles a llevar una vida normal a personas que perdieron el habla o el oído. Además, es un avance importante en el campo de la inteligencia artificial, pues era un problema que se había intentado solucionar hace mucho tiempo.

Pero al poco tiempo comenzaron a aparecer videos pornográficos en los que el rostro de la actriz original había sido cambiado por el de una estrella de cine. Aunque la técnica no es exactamente la misma que usaron los investigadores, el potencial de esta tecnología para la manipulación de información fue evidente: esta clase de videos pronto recibieron el nombre de ‘deep fakes’, lo que traduce algo así como ‘falsedades profundas’.

 

¿Cómo se hacen estos videos?

Por lo pronto, hacer estos videos no es tan sencillo como crear un montaje fotográfico. Se necesita de una persona de que la que ya haya muchas horas de video disponibles. El algoritmo creado por los investigadores en Washington modela los movimientos de la boca del personaje basándose en todo ese material audiovisual, y luego mezcla la boca creada digitalmente con una imagen del resto de su rostro.

Pero la técnica empleada por quienes suplantan los rostros de los videos para adultos es más sencilla. Basta con tomarse cientos de fotos haciendo toda clase de gestos, y conseguir también cientos de imágenes de la persona a la que desea reemplazar –que, en este caso, pueden ser capturas de pantalla del video original.

Eso fue lo que intentó Kevin Rose, un periodista del New York Times que quiso hacer un ‘deep fake’ de sí mismo en una película del actor Ryan Gosling usando la misma técnica. El algoritmo tomará esas fotos para ‘entrenarse’ y modelar el rostro de las dos personas.

No es que cualquiera pueda poner la cara de un político o una figura pública en cualquier video. Pero los recursos para hacerlo ya están ahí afuera.

Ahora bien, no es viable hacerlas en un computador personal cualquiera. Aunque el programa que permite crear estos videos es gratuito y está disponible en internet, sí requiere de un poder de procesamiento superior al de un equipo común para que los resultados no tomen días o semanas. Rose tuvo que alquilar un pequeño servidor en la nube, lo que le permitió hacer los videos en tiempos de entre ocho y diez horas.

Además, no todos los rostros funcionan en todos los videos. Cuando el primer experimento de Rose no salió bien, el periodista le pidió ayuda a un creador experimentado de ‘deep fakes’, quien tenía “una percepción más intuitiva de cuáles videos podrían producir un resultado más limpio, y más experiencia con los ajustes sutiles que hay que hacer al final del proceso”. Al final, el periodista sí pudo suplantar a otros actores y presentadores –menos apuestos que Gosling, eso sí.

Así que, por ahora, no es que cualquiera pueda poner la cara de un político o una figura pública en cualquier video. Pero los recursos para hacerlo ya están ahí afuera, y seguramente los desinformadores organizados ya están haciendo sus experimentos.

 

Cuándo sospechar de un video

Ira Kemelmacher-Shlizerman, una de las investigadoras de la U. de Washington, dice que es importante entender esta técnica para saber cómo atajarla: “Cuando sabes cómo hacer algo, sabes cómo hacerle ingeniería inversa. Por eso, es posible crear métodos para distinguir los videos editados de los reales”, le dijo a la BBC.

El problema es que, hasta ahora, nadie ha descubierto la manera de señalar cuándo un video ha sido publicado sin alteraciones, ni de hacerles ingeniería inversa a los ‘deep fakes’. Sin embargo, sí hay algunos indicios que pueden indicar que un video ha sido manipulado o hace afirmaciones falsas:

  • No viene de una fuente reconocida: Si el video apareció en un canal desconocido de YouTube, o forma parte de una cadena de WhatsApp, verifica que la información haya sido publicada por al menos una fuente reconocida, como un medio serio de comunicación o el perfil oficial del protagonista. Si lo que se dice en el video no aparece en ningún otro lado, posiblemente es falso.
  • Los lugares y las fechas no coinciden: Puedes revisar si es verdad que algo sucedió en alguna parte si buscas el clima de ese lugar el día que salió. Si no coincide, ya ‘agarraste’ la primera mentira. Si no aparece alguna referencia geográfica que debería estar allí, es muy posible que el video no muestre lo que dice mostrar.
  • Tiene detalles que no cuadran: Si ves un logotipo que no debería estar allí, o algún detalle extraño, es posible que se trate de un indicio de un video falsificado.
  • Apela a la emoción: Como dijo Alastair Reed, ex jefe de redacción de la organización First Draft Media, en un encuentro del colectivo Hacks/Hackers, los contenidos desinformativos y manipuladores “buscan generar una respuesta emocional”. Así que si el video tiene un tono emotivo y busca que la gente se altere, probablemente tenga intenciones de desinformar.

Continúa Leyendo

Calma

Para los seguidores de los candidatos perdedores, las horas después...

Encuentro de Convivencias en red, en Bogotá.

En Bogotá, última parada de los encuentros Convivencias en red, la...

Ubicación en el celular

Tras una investigación de The New York Times que mostró el alcance...

©Fundación Gabo 2024 - Todos los derechos reservados.