Giro di vite in Australia: il Governo dichiara guerra alle app deepfake e di "nudificazione"

L'Australia scende in campo con decisione contro l'abuso dell'intelligenza artificiale. La ministra delle Comunicazioni, Anika Wells, ha annunciato un'imminente normativa per obbligare le aziende tecnologiche a bloccare la diffusione di applicazioni che creano deepfake e "nudificano" le immagini, un fenomeno in crescita che minaccia soprattutto i più giovani. Scopriamo insieme i dettagli di questa importante iniziativa.
La notizia

Ciao a tutti, amici del blog! Oggi parliamo di un argomento tanto affascinante quanto, purtroppo, pericoloso: l'intelligenza artificiale. E no, non ci riferiamo a robot che conquisteranno il mondo, ma a un suo utilizzo subdolo e dannoso che sta prendendo sempre più piede: la creazione di deepfake e la cosiddetta "nudificazione" di immagini. L'Australia, però, ha deciso di dire basta e di mettere un freno a questa deriva tecnologica con una nuova e attesa legislazione.

Una "tecnologia detestabile" da fermare

La ministra delle Comunicazioni australiana, Anika Wells, non ha usato mezzi termini, definendo queste applicazioni come "detestabili tecnologie". E come darle torto? Parliamo di software che, sfruttando l'IA, sono in grado di alterare foto e video in modo incredibilmente realistico, fino a creare contenuti falsi, spesso a sfondo sessuale, senza il consenso delle persone ritratte. Un fenomeno particolarmente allarmante è quello delle app di "nudificazione", che permettono di spogliare digitalmente chiunque a partire da una semplice fotografia. Immaginate le conseguenze devastanti che questo può avere sulla vita di una persona, specialmente se si tratta di un minore.

Il governo australiano, quindi, si prepara a varare una legge che metterà alle strette le compagnie tecnologiche. L'obiettivo è chiaro: l'onere di controllare e rimuovere queste app dai loro store e piattaforme ricadrà direttamente su di loro. "Non vi è posto per app e per tecnologie che sono usate solo per offendere, umiliare e danneggiare altre persone, specialmente i bambini", ha dichiarato con forza la ministra Wells. Una presa di posizione netta che pone l'Australia in prima linea nella lotta globale contro gli abusi online.

Un problema in crescita esponenziale

La necessità di un intervento legislativo è diventata impellente di fronte alla diffusione capillare di questi strumenti. La facilità con cui è possibile creare deepfake ha portato a un'esplosione di nuove forme di abuso, come le truffe di "sextortion" che prendono di mira i più giovani. Ma il problema non si ferma qui. In scuole e università di tutto il mondo si sono verificati scandali legati alla creazione di immagini sessualizzate di coetanei, un fenomeno che genera traumi psicologici profondi e difficili da superare. L'eSafety Commissioner australiano, l'ente per la sicurezza online, ha lanciato l'allarme, rivelando che le segnalazioni di abusi basati su immagini digitalmente alterate che coinvolgono minori sono più che raddoppiate negli ultimi 18 mesi.

L'azione del governo si inserisce in un quadro più ampio di tutela dei minori online. L'Australia ha già introdotto leggi severe, come il divieto di accesso ai social media per i minori di 16 anni, dimostrando una forte determinazione nel creare un ambiente digitale più sicuro. La nuova normativa sui deepfake rappresenta un ulteriore, fondamentale tassello di questa strategia.

Cosa prevede la nuova legge?

Anche se i dettagli specifici della legislazione sono ancora in fase di sviluppo in collaborazione con l'industria tecnologica e i gruppi di sostegno, l'indirizzo è chiaro. Si punta a un vero e proprio "Digital Duty of Care", un dovere di diligenza digitale che obbligherà le piattaforme a prevenire attivamente i danni online. Questo significa che non basterà più intervenire dopo la segnalazione di un abuso, ma sarà necessario implementare misure preventive per impedire la circolazione di queste app dannose.

Il percorso legislativo è già iniziato. Già nel 2023, la ministra delle Comunicazioni, all'epoca Michelle Rowland, aveva annunciato un aggiornamento delle linee guida sulla sicurezza online (Basic Online Safety Expectations) per obbligare le compagnie a sopprimere contenuti nocivi creati con l'IA. Più di recente, è stato presentato il Criminal Code Amendment (Deepfake Sexual Material) Bill 2024, che mira a criminalizzare la creazione, distribuzione e possesso di materiale sessuale deepfake non consensuale, con pene che possono arrivare fino a 15 anni di reclusione.

  • Responsabilizzazione delle piattaforme: Le aziende tech dovranno implementare sistemi per identificare e bloccare la diffusione di app per deepfake e "nudificazione".
  • Prevenzione prima della cura: L'obiettivo è agire alla fonte, impedendo che questi strumenti dannosi arrivino agli utenti, piuttosto che limitarsi a gestire le conseguenze.
  • Sanzioni severe: Sebbene non ancora definite nel dettaglio per questa specifica iniziativa, le leggi australiane in materia di sicurezza online prevedono già multe salatissime per le aziende che non rispettano le normative.

Un passo avanti per la sicurezza di tutti

L'iniziativa australiana è un segnale importante a livello globale. In un'era in cui la tecnologia corre più veloce della legislazione, è fondamentale che i governi si assumano la responsabilità di proteggere i cittadini, specialmente i più vulnerabili. La lotta contro i deepfake non è solo una questione di privacy, ma di dignità umana. La capacità di manipolare la realtà a questo livello rappresenta una minaccia concreta che non può essere ignorata.

Conclusione

Personalmente, credo che la mossa del governo australiano sia non solo necessaria, ma esemplare. È facile perdersi nei dibattiti sulla libertà di espressione o sulle potenzialità positive dell'IA, dimenticando che dietro ogni schermo ci sono persone reali, con emozioni e vulnerabilità reali. Porre un freno a chi sviluppa e diffonde tecnologie con il solo scopo di nuocere è un dovere civile. La tecnologia deve essere uno strumento di progresso e connessione, non un'arma per umiliare e ferire. L'onere non può e non deve ricadere solo sulle vittime, costrette a denunciare dopo aver subito un danno spesso irreparabile. È giusto che le grandi aziende tecnologiche, che traggono enormi profitti dai loro servizi, si facciano carico della responsabilità di garantire che le loro piattaforme non diventino un terreno fertile per abusi e violenze. Speriamo che l'esempio dell'Australia venga seguito presto da molti altri Paesi.