Intelligenza Artificiale: Specchio dei Nostri Pregiudizi o Strumento di Equità? Il Caso Grok e la Rivolta dell'IA Femminista

L'intelligenza artificiale non è neutrale. Riflette i pregiudizi di chi la crea e dei dati con cui viene addestrata. Dal caso dei deepfake a sfondo sessuale di Grok agli stereotipi di genere negli assistenti vocali, emerge un quadro preoccupante. Ma una nuova ondata di IA femminista, specialmente in America Latina, sta provando a cambiare le cose, costruendo tecnologie più eque e inclusive. Scopriamo insieme come e perché questa battaglia ci riguarda tutti.
La notizia

Ciao a tutti! Oggi parliamo di un argomento che sta diventando sempre più centrale nelle nostre vite digitali: l'intelligenza artificiale. Ma non la vedremo solo come una tecnologia futuristica e affascinante. Vogliamo scavare un po' più a fondo e capire come, a volte, possa diventare uno specchio, non sempre lusinghiero, della nostra società, con tutti i suoi pregiudizi e stereotipi. E sì, parleremo anche di come un gruppo di donne toste stia cercando di ribaltare la situazione.

L'IA non è "neutrale": un piccolo esperimento mentale

Partiamo da un presupposto fondamentale che spesso dimentichiamo: l'IA non è un'entità magica e imparziale. È un prodotto umano. Immaginatela come un bambino che impara dal mondo che lo circonda. Se il mondo che gli mostriamo è pieno di stereotipi, cosa pensate che imparerà? Esatto. Diventerà uno specchio di quei pregiudizi. E i "genitori" di queste IA, ovvero chi le progetta e le programma, sono ancora in stragrande maggioranza uomini. Secondo stime del World Economic Forum, le donne rappresentano meno di un terzo della forza lavoro nel campo dell'IA a livello globale. Questo squilibrio ha conseguenze tangibili e spesso problematiche.

Facciamo qualche esempio pratico che forse avrete notato anche voi:

  • Assistenti vocali: Avete mai fatto caso che la maggior parte degli assistenti vocali come Siri o Alexa ha una voce femminile di default? Questo non è un caso, ma rafforza lo stereotipo che associa le donne a ruoli di servizio e assistenza.
  • Generatori di immagini: Provate a chiedere a un'IA di generare l'immagine di un "CEO". Molto probabilmente vi mostrerà un uomo in giacca e cravatta. Se invece chiedete un "assistente", le probabilità che l'immagine sia di una donna aumentano drasticamente. Questo riflette e perpetua le disuguaglianze presenti nel mondo del lavoro.
  • Riconoscimento facciale: Ancora più grave, molti sistemi di riconoscimento delle immagini hanno dimostrato di avere tassi di errore significativamente più alti nell'identificare correttamente le donne, specialmente le donne di colore. Questo può avere conseguenze serissime, ad esempio in ambito di sicurezza e forze dell'ordine.

Il caso Grok: quando l'IA diventa un'arma

Recentemente, un caso ha scosso l'opinione pubblica e ha messo in luce i pericoli di un'IA progettata senza considerare la sicurezza e i diritti delle donne. Parliamo di Grok, il chatbot sviluppato da x.AI di Elon Musk. Per un certo periodo, questa intelligenza artificiale ha offerto la possibilità di creare deepfake a sfondo sessuale, ovvero immagini e video falsi e realistici, anche di minori. La funzione è stata poi sospesa in seguito alle numerose polemiche, ma il danno era fatto e la questione sollevata è enorme.

Ivana Bartoletti, un'esperta internazionale di governance dell'IA che ha lavorato anche con il Consiglio d'Europa, ha commentato la vicenda in modo molto diretto: "Se esistono strumenti per nudificare le donne, verranno usati". Ha definito i deepfake nudi "una forma di umiliazione e controllo" che mira a silenziare le donne e a spingerle fuori dallo spazio digitale. Il messaggio implicito, come sottolinea Bartoletti, è devastante: "sei online, quindi te lo meriti".

La risposta: nasce l'Intelligenza Artificiale Femminista

Di fronte a questo scenario, non tutt* sono stat* a guardare. Sta emergendo un movimento globale che vuole ripensare l'IA dalle fondamenta, per trasformarla da potenziale strumento di oppressione a leva di emancipazione e potere condiviso. È la cosiddetta IA femminista.

Un esempio incredibile arriva dall'America Latina e dai Caraibi, dove è nata la Rete Femminista di IA. Questa rete supporta decine di progetti che mettono al centro la trasparenza, l'equità e le politiche pubbliche. Stanno nascendo strumenti concreti come:

  1. AymurAI, Arvage IA e SofIA: Applicazioni che utilizzano l'IA per analizzare documenti legali con una prospettiva di genere, aiutando a smascherare discriminazioni nascoste negli algoritmi.
  2. AfroféminasGPT: Un assistente virtuale che rappresenta un atto di autodeterminazione dell'afrofemminismo. È stato addestrato esclusivamente su testi e conoscenze del pensiero nero e decoloniale, per offrire una prospettiva diversa e contrastare i bias razziali presenti nei sistemi mainstream.

Queste iniziative dimostrano che un'altra IA è possibile. Un'IA che nasce dai bisogni reali delle comunità, che condivide i dati in modo collettivo e che progetta soluzioni per il bene comune.

Una questione di potere, non solo di codice

Come sottolinea Ivana Bartoletti, il cuore del problema è una questione di potere. "La questione femminista nell'IA è una questione di potere: le donne devono averne di più. Non ai margini, ma ai vertici delle aziende e nei luoghi dove si decide la politica tecnologica".

Non basta avere più donne che scrivono codice. Serve diversità nei consigli di amministrazione, nei comitati etici, nei governi. Perché, alla fine, l'intelligenza artificiale non è solo una questione tecnologica. È una scelta su come vogliamo che sia la nostra società futura.

L'equità, come dice Bartoletti, non è un risultato che emerge spontaneamente. "Va progettata". E per progettarla, abbiamo bisogno di tutte le voci, di tutte le prospettive, di tutta la diversità che il nostro mondo ha da offrire.

Conclusione

Personalmente, credo che la tecnologia sia uno strumento potentissimo, ma come ogni strumento, può essere usato per costruire o per distruggere. La storia dei pregiudizi nell'IA ci mostra i rischi che corriamo quando lasciamo che a progettare il futuro sia solo una piccola parte, omogenea, della società. Le iniziative come la Rete Femminista di IA, però, mi riempiono di speranza. Ci ricordano che non siamo spettatori passivi. Possiamo e dobbiamo partecipare attivamente alla costruzione di un futuro digitale che sia più giusto, equo e rappresentativo per tutti. La prossima volta che interagirete con un'IA, chiedetevi: chi l'ha creata? Con quali dati è stata addestrata? E, soprattutto, quali valori sta promuovendo? Porci queste domande è il primo passo per diventare cittadini digitali più consapevoli e per pretendere una tecnologia che sia veramente al servizio dell'umanità intera.