Australia le declara la guerra a los 'deepfakes' y apps que desnudan con IA: ¡Se acabó el juego!

El gobierno australiano ha dicho "¡basta ya!" y se prepara para lanzar una nueva legislación que pondrá en jaque a las aplicaciones de inteligencia artificial que crean 'deepfakes' y desnudan imágenes de personas sin su consentimiento. La idea es clara: la responsabilidad recaerá directamente en las empresas tecnológicas. ¡Entérate de todos los detalles!
La noticia

¡Amigos y amigas de la red, pónganse cómodos porque la noticia que les traigo hoy es de las que marcan un antes y un después! El gobierno de Australia se ha puesto serio, muy serio, con un problema que nos afecta a todos en la era digital: el uso malintencionado de la inteligencia artificial. Concretamente, se han puesto en el punto de mira esas detestables aplicaciones que permiten crear deepfakes y "desnudar" digitalmente a personas, una práctica que ha causado estragos, especialmente entre los más jóvenes.

Una nueva era de responsabilidad para las Big Tech

La Ministra de Comunicaciones de Australia, Anika Wells, ha sido la encargada de dar el golpe sobre la mesa. El gobierno de Albanese no se va a andar con chiquitas y ya está trabajando mano a mano con la industria tecnológica y diversos defensores de los derechos digitales para dar forma a una nueva legislación. ¿El objetivo principal? Que el peso de la ley no recaiga en las víctimas, sino en las grandes compañías tecnológicas que alojan y distribuyen estas aplicaciones.

"No hay lugar para aplicaciones y tecnologías que se utilizan únicamente para abusar, humillar y dañar a las personas, especialmente a nuestros hijos", sentenció la ministra Wells. Y es que la situación se había vuelto insostenible. El aumento de estas herramientas de IA ha abierto la puerta a nuevas y terribles formas de abuso, como la "sextorsión", donde se chantajea a las víctimas, muchas de ellas menores, con estas imágenes falsas.

¿Cómo funcionan estas terribles "apps de nudificación"?

Para quien no esté familiarizado, estas aplicaciones, a menudo llamadas "nudify" o "declothing" apps, utilizan algoritmos de inteligencia artificial para eliminar digitalmente la ropa de las fotografías de una persona, creando un desnudo falso pero increíblemente realista. Lo más alarmante es la facilidad y rapidez con la que operan: basta una sola foto, a menudo sacada de redes sociales sin permiso, para que en segundos la IA haga su "magia" destructiva.

La Comisionada de Seguridad en Línea de Australia (eSafety Commissioner), Julie Inman Grant, ya había dado la voz de alarma sobre este fenómeno. Según sus datos, las denuncias por imágenes íntimas alteradas digitalmente de menores de 18 años se han más que duplicado en los últimos 18 meses. Un dato aún más escalofriante es que cuatro de cada cinco de estas denuncias involucran a niñas y mujeres jóvenes.

Australia, a la vanguardia de la seguridad online

Esta no es la primera vez que Australia se posiciona como líder en la lucha por un internet más seguro. De hecho, el país oceánico ha estado en la primera línea de los esfuerzos globales para frenar los daños en línea, sobre todo los que afectan a los menores. Un ejemplo claro es la reciente y pionera ley que restringe el uso de redes sociales a los menores de 16 años, una de las más estrictas del mundo.

La nueva legislación contra los deepfakes se suma a un paquete de medidas más amplio, como la futura Ley de Deber Digital de Cuidado (Digital Duty of Care bill), que busca obligar a las plataformas a proteger activamente a sus usuarios. El mensaje es claro y contundente: las empresas que se lucran en el entorno digital también deben ser responsables de la seguridad en él.

¿Qué podemos esperar de esta nueva ley?

Aunque la ministra Wells no ha dado un plazo concreto para la entrada en vigor de la ley, sí ha dejado claro que el gobierno usará "todas las herramientas a su alcance" para restringir el acceso a estas tecnologías. La colaboración con la industria será clave. Se busca crear un marco legal que, sin afectar a los usos legítimos y consentidos de la IA, ponga un cerco efectivo a estas herramientas de abuso.

Las posibles medidas podrían incluir:

  • Obligar a las tiendas de aplicaciones (como Google Play Store y Apple App Store) a eliminar y bloquear estas apps.
  • Imponer fuertes multas a las empresas tecnológicas que no cumplan con la normativa.
  • Reforzar las leyes penales. De hecho, ya se ha presentado el proyecto de ley de Enmienda del Código Penal (Material Sexual Deepfake) 2024, que contempla penas de hasta 15 años de cárcel por crear o distribuir este tipo de material sin consentimiento.

En mi opinión, la iniciativa de Australia es un paso valiente y absolutamente necesario en la dirección correcta. Durante demasiado tiempo, hemos visto cómo la tecnología avanza a un ritmo vertiginoso, dejando a la legislación y, lo que es peor, a las víctimas, muy por detrás. Poner el foco de la responsabilidad en las grandes corporaciones tecnológicas es un cambio de paradigma crucial. No son meros intermediarios; son actores con un poder inmenso y, por tanto, con una responsabilidad proporcional. Esperemos que esta medida inspire a otros países a seguir el mismo camino, porque la dignidad y la seguridad de las personas, especialmente la de los niños, no pueden ser el daño colateral del progreso tecnológico. ¡Bravo por Australia!