
Por Frank Christiansen (dpa)
Garching/Erfurt (Alemania), 29 mar. (dpa) – El número de los llamados «deepfakes» está aumentando vertiginosamente en Alemania y el mundo: en las redes sociales sirven, en el mejor de los casos, para divertir y entretener, pero en las páginas pornográficas pueden destruir la reputación de las personas.
Y en las páginas políticas, influir en las elecciones. Los «deepfakes» son imágenes, vídeos y grabaciones de audio generados por inteligencia artificial (IA) o manipulados que parecen totalmente reales, pero son falsos. En el debate actual, se reconocen cada vez más como un problema en la agenda política.
¿Cómo se descubre un «deepfake»? Nicolas Müller, del Instituto Fraunhofer de Seguridad Aplicada e Integrada (AISEC, por sus siglas en inglés), dirige allí un grupo de investigación sobre el fenómeno. Según explica, el primer análisis se puede hacer con los propios ojos y oídos.
«En una entrevista con una persona, se puede comprobar el sitio en el que se supone que se grabó, por ejemplo Berlín en una fecha determinada. ¿El tiempo meteorológico coincide? En un vídeo también se puede observar si todas las sombras vienen desde el ángulo correcto», señala a dpa.
Esto se puede hacer manualmente: «Se traza una línea desde las sombras de una imagen fija hasta las fuentes de luz y se comprueba si todas estas líneas, al prolongarlas hacia arriba, parten de un punto común. Si no es así, es muy probable que se trate de un ‘deepfake’, al menos si se trata de una escena en exteriores con una sola fuente de luz».
Una serie de indicios
Un posible indicio son los momentos en los que se oye la voz, pero la boca de la persona que habla está cerrada. «Se puede comprobar si se trata solo de un retraso uniforme entre el vídeo y la pista de audio, o es que la IA ha cometido un error», añade Müller.
Existen otros síntomas clásicos de un «deepfake», señala el experto del instituto con sede en Garching, cerca de Múnich: formas raras alrededor de la boca, que el tono de piel del cuello y el torso no coincidan, que una mano tenga seis dedos, que un objeto se funda con la mano o flote sobre ella…
Otro son los metadatos, incluso si faltan. «Si se crean ‘deepfakes’ con modelos actuales de IA como Gemini o ChatGPT, en sus metadatos se indica que han sido generados por IA. Pero también se pueden eliminar los metadatos», indica.
IA contra IA
Además de un análisis crítico y el propio razonamiento, existen herramientas de IA para detectar rápidamente los «deepfakes»: «Al final se obtiene un valor numérico entre 0 y 100. El 0 significa que es auténtico, el 100 que es falso. Normalmente, un deepfake tiene un valor en torno al 95», explica Müller.
Sin embargo, los modelos de IA se mejoran continuamente. «Los modelos tienden a generar imágenes que ya casi no se pueden distinguir del material real», reconoce, pese a lo cual el investigador no ve un panorama sombrío porque en su opinión ocurre «como en la seguridad informática: el atacante mejora y la defensa se adapta en consecuencia».
Jens Kramosch, de la empresa Leak.Red en Erfurt, aborda el «deepfake» como un criminalista: «Es como cuando se llega a la escena de un crimen. Lo mejor es observar primero el panorama general. Yo, por ejemplo, me fijo en el pelo, la línea del cabello, el parpadeo y la textura de la piel». A menudo, la piel de los «deepfakes» es demasiado lisa.
«También es importante no fijarse solo en el centro de la imagen, sino en los bordes: ¿coinciden las líneas? ¿Coinciden las sombras? Hay varios modelos de IA que se centran en el objeto del centro y descuidan lo que hay a su alrededor», comenta.
Lo más difícil es detectar un «deepfake» con una sola persona en el centro de la imagen y un fondo difuso. «En el caso de una mujer, por ejemplo, rodeada de flores, a la IA le resulta mucho más difícil calcular algo que parezca auténticamente real», agrega. A continuación, Kramosch analiza los metadatos: ¿es correcta la geolocalización? ¿La hora y el lugar? «A veces pone 00:00 y 1970 como año de creación», ejemplifica.
Herramientas forenses de IA en acción
«Con nuestra IA podemos crear una cadena de pruebas», afirma Kramosch. «Si el ‘deepfake’ está publicado, por ejemplo en Instagram, podemos congelarlo como prueba y así ya no se podrá modificar. Queda realmente asegurado de forma forense».
También Kramosch cree que la IA mejora cada vez más, se supera constantemente a sí misma y que es posible que a finales de este año «un profano en redes sociales ya no podrá distinguir la diferencia».
El experto cree que en el futuro habrá que cambiar de mentalidad, porque «en algún momento casi solo habrá ‘deepfakes’, o solo contenido generado artificialmente, y entonces será importante decir: esto es un original. Entonces necesitaremos algo como la marca azul de Instagram, una especie de sello de autenticidad digital. Aunque ahora suene dramático, el año que viene ya estaremos ahí».
¿Seguirán siendo identificables como falsificaciones los «deepfakes» llegados a este punto? «Voy a decir que sí -responde-, porque soy optimista y porque, naturalmente, toda IA tiene un patrón determinado. Pero los últimos meses demuestran que el desarrollo avanza muy, muy rápido».