Ciao a tutti, amici del blog! Oggi parliamo di un argomento che sta facendo parecchio discutere e che tocca corde molto sensibili: l'intelligenza artificiale, la memoria storica e il rispetto per le figure che hanno cambiato il mondo. La notizia è di quelle che fanno riflettere: OpenAI ha messo in pausa la possibilità di generare video che ritraggono Martin Luther King Jr. sulla sua nuova e chiacchieratissima applicazione, Sora.
Una decisione forte, arrivata non a caso, ma in seguito a una richiesta diretta e sentita da parte degli eredi di King. Il motivo? La comparsa di video "irrispettosi" e francamente oltraggiosi, che utilizzavano l'immagine del Dottor King in modi a dir poco inappropriati. Pensate che, secondo quanto riportato dal Washington Post, sono circolati filmati in cui l'icona dei diritti civili emetteva versi scimmieschi durante il suo storico discorso "I Have a Dream" o lottava con un'altra figura cardine come Malcolm X.
Cos'è Sora e perché se ne parla tanto?
Facciamo un passo indietro per chi non fosse sul pezzo. Sora è la nuova creatura di OpenAI, la stessa azienda dietro al famosissimo ChatGPT. Non è solo un generatore di video da testo, ma una vera e propria app social, stile TikTok, dove gli utenti possono creare brevi clip video generate dall'intelligenza artificiale. Lanciata di recente in mercati selezionati (per ora, niente Unione Europea e Regno Unito, dove si sta ancora lavorando per allinearsi alle normative locali), Sora ha subito fatto il botto, diventando l'app più scaricata in paesi come gli Stati Uniti e il Canada.
La sua caratteristica principale è la funzione "cameo", che permette di creare deepfake incredibilmente realistici. L'idea di base è che un utente possa "prestare" la propria immagine per essere inserita nei video, ma la piattaforma ha permesso fin da subito di utilizzare anche le sembianze di personaggi famosi, soprattutto quelli storici, senza un consenso esplicito. Ed è qui che sono iniziati i problemi.
La reazione della famiglia King e la risposta di OpenAI
Di fronte a questa ondata di contenuti denigratori, la reazione non si è fatta attendere. Bernice King, figlia di Martin Luther King Jr. e CEO del Martin Luther King Jr. Center for Nonviolent Social Change, ha espresso pubblicamente il suo dissenso, unendosi al coro di altri familiari di celebrità scomparse, come Zelda Williams, figlia di Robin Williams, che hanno chiesto di smettere di creare e condividere questi video. Bernice King ha sottolineato un punto fondamentale: sebbene suo padre fosse una figura pubblica, non era un funzionario eletto e la sua immagine non è di pubblico dominio.
La risposta di OpenAI, per fortuna, è stata rapida. In una dichiarazione congiunta con l'ente che gestisce l'eredità di King (The Estate of Martin Luther King Jr., Inc.), l'azienda ha comunicato la decisione di "mettere in pausa le generazioni che raffigurano il Dr. King" mentre lavora per rafforzare le misure di protezione per le figure storiche.
La posizione ufficiale di OpenAI è interessante e cerca un difficile equilibrio: "Sebbene vi siano forti interessi di libertà di parola nel rappresentare personaggi storici, OpenAI ritiene che i personaggi pubblici e le rispettive famiglie debbano avere l'ultima parola sul controllo di come la loro immagine viene utilizzata". Hanno inoltre specificato che i rappresentanti autorizzati e gli eredi possono richiedere che l'immagine delle persone che tutelano non venga usata nei cameo di Sora.
Un problema che non riguarda solo Martin Luther King
Il caso di Martin Luther King è solo la punta dell'iceberg. L'app Sora è stata invasa da deepfake di ogni tipo, spesso con toni surreali, grotteschi o offensivi. Sono stati segnalati video con:
- Malcolm X che fa battute volgari.
 - Il giocatore di basket Kobe Bryant a bordo di un elicottero che ricorda quello del suo tragico incidente.
 - L'ex presidente John F. Kennedy che scherza sull'omicidio di un attivista.
 - La cantante Whitney Houston in video che sembrano riprese da una body-cam della polizia mentre appare intossicata.
 - L'artista Bob Ross e lo scienziato Stephen Hawking in contesti parodistici e irrispettosi.
 
Questo fenomeno, definito da alcuni "AI slop" (letteralmente "sbobba artificiale"), consiste nella produzione di massa di contenuti di basso valore, creati solo per attirare click e generare traffico. Ma quando si toccano figure di questa levatura, il gioco smette di essere divertente e diventa un problema etico e legale.
Libertà d'espressione o sfruttamento dell'immagine?
La questione è complessa. Da un lato c'è il diritto alla libertà di espressione e di satira. Dall'altro, il diritto all'immagine e, soprattutto, il rispetto per la memoria e l'eredità di una persona. Le leggi sul "diritto alla pubblicità" post-mortem variano, ma in molti luoghi, come la California, gli eredi controllano i diritti sull'immagine per 70 anni dopo la morte della celebrità.
OpenAI potrebbe difendersi sostenendo che questi video rientrano nell'"uso trasformativo", un concetto legale che protegge parodie e altre forme di espressione artistica. Tuttavia, le famiglie delle persone coinvolte, come Ilyasah Shabazz, figlia di Malcolm X, si chiedono perché gli sviluppatori di queste tecnologie non agiscano con la stessa moralità e cura che vorrebbero per le proprie famiglie.
Conclusione: un passo necessario verso un'IA più responsabile
Dal mio punto di vista, la decisione di OpenAI è un passo non solo giusto, ma assolutamente necessario. L'intelligenza artificiale generativa è uno strumento potentissimo, con un potenziale creativo immenso, ma come ogni strumento, può essere usato per costruire o per distruggere. In questo caso, stava distruggendo la dignità e l'eredità di persone che hanno lottato per un mondo migliore.
Non si tratta di censura, ma di responsabilità. È impensabile che la memoria di figure come Martin Luther King Jr. venga lasciata in balia di chiunque voglia trasformarla in un meme di cattivo gusto per qualche like. La tecnologia non può e non deve essere una "zona franca" dove etica e rispetto vengono meno. Il fatto che OpenAI abbia ascoltato la famiglia King e abbia agito di conseguenza è un segnale positivo. Dimostra una presa di coscienza e apre la strada a un dibattito fondamentale su quali "guardrail", quali paletti, dobbiamo mettere per garantire che l'avanzata dell'IA sia un progresso per l'umanità, e non un regresso nella civiltà e nel rispetto reciproco.
                            