Deepfakes: cuando la realidad deja de ser real y cómo protegerte en la era digital

La inteligencia artificial nos ha traído los 'deepfakes', imágenes y vídeos falsos tan realistas que ponen en jaque nuestra percepción de la verdad. Este fenómeno, especialmente grave en la creación de contenido íntimo no consentido, nos obliga a cambiar las reglas del juego. Te contamos qué está pasando, cómo defenderte y por qué educar a las nuevas generaciones es más importante que nunca.
La noticia

¿Te fías de lo que ven tus ojos? Quizá deberías empezar a dudar

Imagina que un día te encuentras con un vídeo tuyo en internet diciendo o haciendo algo que jamás harías. Suena a pesadilla, ¿verdad? Pues bienvenido al mundo de los deepfakes. Esta tecnología, que usa inteligencia artificial para crear vídeos, imágenes o audios falsos de un realismo asombroso, ha dejado de ser ciencia ficción para convertirse en un problema muy real y cada vez más extendido. Y como advierten los expertos, esto cambia por completo nuestra relación con la verdad.

"Debemos entender que lo que considerábamos real un tiempo ahora no lo es más". Esta es la contundente reflexión de Marco Ramilli, fundador de IdentifAI, una empresa italiana que se dedica precisamente a procesar imágenes para detectar falsificaciones creadas con IA generativa. Su mensaje es claro: no existe una solución mágica para este problema. La tecnología para crear estos engaños siempre irá un paso por delante, por lo que nuestra mejor defensa es una buena dosis de escepticismo y educación.

Un problema que nos afecta a todos (y especialmente a los más jóvenes)

Aunque los deepfakes pueden usarse para desinformación política o estafas, una de sus caras más oscuras es la creación de contenido íntimo falso y no consentido. Se toma la imagen de una persona y se superpone en contenido pornográfico, creando una forma de violencia digital con consecuencias devastadoras para las víctimas, como acoso, vergüenza y daños psicológicos profundos.

Las cifras son alarmantes. Un estudio citado por Ramilli, realizado por investigadores de Google y la Universidad de Melbourne, reveló que el 22,6% de las personas encuestadas en diez países había sufrido alguna forma de creación o distribución de imágenes íntimas sin su consentimiento. Aunque en muchos lugares no hay datos oficiales, los indicadores sugieren que es un fenómeno global que afecta de manera desproporcionada a mujeres, jóvenes y colectivos LGTBQ+.

Este problema se agrava entre los adolescentes, donde se mezcla con dinámicas de bullying y sextorsión. La facilidad con la que hoy se pueden crear estas imágenes falsas ha encendido las alarmas de organizaciones como Naciones Unidas, que advierte que la avalancha de este material amenaza con desbordar la capacidad de las fuerzas policiales para identificar a víctimas y agresores.

¿Y la tecnología? ¿No puede ayudarnos a luchar contra esto?

Sí y no. Las grandes empresas tecnológicas están desarrollando contramedidas, como las "marcas de agua" digitales (watermarks), para certificar si una imagen ha sido generada por IA. Sin embargo, como señala Marco Ramilli, estas marcas a menudo pueden eliminarse con relativa facilidad. Por eso, él aboga por la necesidad de tener terceras partes, empresas independientes como la suya, que verifiquen la autenticidad del contenido.

Para el usuario de a pie, detectar un deepfake puede ser complicado, pero hay algunas pistas que pueden ayudar:

  • Los ojos: Fíjate si el parpadeo parece poco natural o si los reflejos en ambas pupilas no coinciden.
  • El rostro: A veces los bordes de la cara se ven borrosos o el tono de piel no es uniforme.
  • Sincronización: El movimiento de los labios puede no coincidir perfectamente con el audio.
  • Detalles extraños: Busca inconsistencias en el fondo, la iluminación o en detalles como el pelo o los dientes.

Existen también herramientas y plataformas online que analizan archivos en busca de manipulación, aunque su eficacia varía a medida que la tecnología de los deepfakes se vuelve más sofisticada.

Nuevas leyes para un nuevo delito

La buena noticia es que los legisladores están empezando a tomar cartas en el asunto. En Europa, normativas como la Ley de Servicios Digitales (DSA) y la Ley de Inteligencia Artificial (AI Act) ya establecen obligaciones para que las plataformas retiren contenido ilegal y etiqueten el material generado por IA.

Algunos países van incluso más allá. Italia, por ejemplo, aprobó recientemente una ley pionera sobre IA que establece penas de hasta cinco años de prisión por el uso ilícito de deepfakes que causen un daño significativo. En España, también se ha propuesto la reforma del Código Penal para tipificar como delito la creación de deepfakes de contenido sexual sin consentimiento, una iniciativa clave para proteger especialmente a los menores.

La conclusión: educar nuestra mirada

Las leyes y la tecnología son herramientas necesarias, pero la verdadera batalla contra los deepfakes se libra en otro campo: el de la educación y el pensamiento crítico. El consejo de Marco Ramilli resuena con fuerza: "debemos educar a las nuevas generaciones a hacerse más preguntas". Esto significa enseñar a los jóvenes (y no tan jóvenes) a no creer todo lo que ven, a verificar las fuentes y a entender las consecuencias de compartir contenido. Significa, en definitiva, aprender a navegar en un mundo donde la línea entre lo real y lo falso es cada vez más difusa. Ya no podemos confiar ciegamente en nuestros ojos; ahora, más que nunca, necesitamos usar la cabeza.