Una realidad que asusta: los números del acoso digital
Imagina que una foto tuya, una que subiste a tus redes sociales sin pensarlo dos veces, termina convertida en una imagen pornográfica falsa que circula por internet. Suena a pesadilla, ¿verdad? Pues es una realidad cada vez más común gracias a la tecnología deepfake. Y lo más preocupante es que está afectando masivamente a los más jóvenes.
Según datos de Thorn, una organización sin ánimo de lucro estadounidense dedicada a la seguridad infantil, las cifras son para echarse a temblar. Uno de cada 8 jóvenes de entre 13 y 20 años conoce personalmente a alguien que ha sido víctima de imágenes de desnudos falsas creadas con inteligencia artificial. Yendo más allá, uno de cada 17 adolescentes ha sufrido este tipo de acoso en sus propias carnes. Esto no es algo lejano, está pasando en los institutos, en los grupos de amigos, a la vuelta de la esquina.
La investigación de Thorn también revela que el 13% de los adolescentes sabe de alguien que ha utilizado estas tecnologías para crear o compartir material pornográfico falso de menores de edad. El problema no es solo recibir estas imágenes, sino también la facilidad con la que se crean y distribuyen.
¿Cómo funciona esta tecnología y qué apps la utilizan?
El término "deepfake" viene de la combinación de "deep learning" (aprendizaje profundo) y "fake" (falso). Básicamente, se trata de programas informáticos que, mediante inteligencia artificial, son capaces de "desnudar" a una persona en una foto, creando una imagen de desnudo completamente artificial y, por supuesto, sin ningún tipo de consentimiento. El resultado es tan realista que puede engañar a cualquiera.
Han surgido varias aplicaciones que facilitan este proceso, haciéndolo accesible para casi cualquier persona. Nombres como Clothoff, BikiniOff y DeepNude se han hecho tristemente famosos por permitir estas manipulaciones. De hecho, el Garante para la Protección de Datos Personales de Italia, una especie de agencia de protección de datos, ya ha tomado cartas en el asunto, bloqueando Clothoff y abriendo investigaciones sobre la difusión de estos programas a través de canales como Telegram.
Un problema global que afecta a todos
Aunque los jóvenes son un blanco fácil, nadie está a salvo. Celebridades como Taylor Swift han sido víctimas de campañas masivas de desprestigio con imágenes porno falsas que fueron vistas por millones de personas en redes sociales. Este caso fue tan sonado que hasta la Casa Blanca expresó su preocupación, y un gran número de fans de la cantante se movilizaron para denunciar las cuentas que compartían el contenido.
Pero el problema va mucho más allá de las figuras públicas. Según Graphika, una empresa que analiza redes sociales, millones de personas visitan cada mes más de 100 sitios web dedicados a "desnudar" gente online. Y una encuesta realizada en Gran Bretaña por la empresa de seguridad Eset reveló que una de cada 10 mujeres ha sido víctima de pornografía deepfake.
Las mujeres son, de hecho, el objetivo principal de esta forma de violencia digital. Un estudio de la empresa de ciberseguridad Home Security Heroes señala que las mujeres son víctimas del 99% de los deepfakes pornográficos. Este mismo informe destaca un aumento del 464% en la creación de este tipo de contenido en el último año.
Casos reales que encienden las alarmas en España e Italia
Esta problemática ya ha llegado a las aulas de nuestros países. En Italia, por ejemplo, se han dado varios casos que han saltado a los medios de comunicación:
- En 2023, dos estudiantes de secundaria en Roma fueron descubiertos publicando en redes sociales fotos de sus compañeras manipuladas con la aplicación BikiniOff.
- En 2024, en la provincia de Latina, cinco estudiantes menores de edad hicieron lo mismo, tomando fotos de los perfiles de Instagram de sus compañeras para luego falsificarlas.
En España, la situación también es preocupante. Se han reportado casos en varias ciudades, como Almendralejo (Badajoz) y recientemente en un conocido colegio de la capital, donde alumnos crearon y difundieron imágenes falsas de sus compañeras desnudas. Estos incidentes no solo demuestran la accesibilidad de estas herramientas, sino también la falta de conciencia sobre el grave daño que pueden causar.
¿Qué se está haciendo al respecto?
Las autoridades empiezan a reaccionar. El Garante Privacy en Italia, además de bloquear apps, ha publicado guías para sensibilizar a los usuarios sobre los riesgos de estas tecnologías. A nivel europeo, normativas como la Ley de Servicios Digitales (DSA) y la Ley de IA buscan poner coto a esta situación, obligando a las plataformas a actuar con rapidez para eliminar contenidos ilegales y a etiquetar claramente los contenidos generados por inteligencia artificial.
En España, el Gobierno ha aprobado un proyecto de ley para tipificar como delito la creación de deepfakes de contenido sexual sin consentimiento, especialmente para proteger a los menores. Esta ley también contempla la inclusión de sistemas de control parental gratuitos y por defecto en los dispositivos digitales.
Sin embargo, el camino es largo. El impacto psicológico en las víctimas es devastador, causando ansiedad, depresión y un trauma profundo, aunque las imágenes no sean reales. Es una violación de la intimidad y la dignidad que deja cicatrices difíciles de borrar.
Mi punto de vista
Como periodista, creo que estamos ante una de las caras más oscuras de la inteligencia artificial. La tecnología en sí no es mala, pero su uso para acosar, humillar y violentar a las personas es absolutamente intolerable. No podemos quedarnos de brazos cruzados. Es fundamental que, además de leyes más duras, apostemos por la educación digital. Los jóvenes (y no tan jóvenes) deben entender que detrás de cada foto hay una persona real, con sentimientos y derechos. Crear o compartir un deepfake pornográfico no es una broma, es un acto de violencia digital con consecuencias muy reales. La lucha contra esta lacra es responsabilidad de todos: gobiernos, empresas tecnológicas, educadores y, por supuesto, de cada uno de nosotros como usuarios de internet.