Ciao a tutti, amici del web e appassionati di tecnologia! Oggi parliamo di un argomento che sta facendo tremare i polsi a tutta la Silicon Valley e non solo. Avete presente Sam Altman, il volto sorridente e rassicurante di OpenAI, l'azienda che ha creato il rivoluzionario ChatGPT? Bene, preparatevi a mettere in discussione tutto quello che pensavate di sapere su di lui. Un'inchiesta-bomba pubblicata sul prestigioso New Yorker ha acceso un faro potentissimo sulla sua figura, e quello che ne emerge è un quadro a dir poco preoccupante.
L'articolo, frutto di un anno e mezzo di lavoro dei giornalisti Ronan Farrow (sì, proprio lui, il premio Pulitzer che ha scoperchiato il vaso di Pandora del movimento #MeToo) e Andrea Marantz, si intitola "Sam Altman potrebbe cambiare il nostro futuro. Ci si può fidare?". E, ve lo dico subito, la risposta che emerge dalle pagine dell'inchiesta non è per niente confortante.
Un Ritratto Inquietante: "Non Ancorato alla Realtà"
Immaginate di lavorare fianco a fianco con una delle menti più brillanti del nostro tempo, l'uomo che sta guidando una delle rivoluzioni tecnologiche più impattanti della storia umana. Ora immaginate che i vostri colleghi più stretti, le persone che lo conoscono meglio, lo descrivano in privato come sfuggente, bugiardo, con tratti sociopatici e "non ancorato alla realtà". Fa venire i brividi, vero? Eppure, questo è il ritratto di Sam Altman che emerge dalle oltre 100 interviste e dalle 200 pagine di documenti interni, mai divulgati prima, su cui si basa l'inchiesta.
Uno dei personaggi chiave di questa storia è Ilya Sutskever, co-fondatore di OpenAI e uno degli scienziati più rispettati nel campo dell'IA. Fu proprio lui uno dei principali promotori del clamoroso licenziamento di Altman nel novembre 2023. Già nel 2019, Sutskever esprimeva profonde preoccupazioni, arrivando a dire: "Non penso che Sam sia la persona che dovrebbe avere il dito sul pulsante". Una frase pesantissima, che oggi assume un significato ancora più sinistro.
L'inchiesta rivela l'esistenza di un dossier segreto di circa 70 pagine, compilato proprio da Sutskever, che raccoglieva prove del comportamento di Altman. In uno di questi memo, la prima parola usata per descrivere un "modello di comportamento consistente" di Altman è semplicemente: "Mentire". L'accusa era quella di mentire costantemente ai membri del consiglio di amministrazione e ai dirigenti, soprattutto riguardo ai protocolli di sicurezza interni.
La Saga del Licenziamento e il Ritorno del Re
Molti di voi ricorderanno la telenovela che ha tenuto banco per qualche giorno nel 2023: il consiglio di amministrazione di OpenAI che licenzia in tronco il suo CEO, accusandolo di non essere stato "costantemente sincero nelle sue comunicazioni". Sembrava la fine di un'era. E invece, nel giro di una manciata di giorni, Altman è stato reintegrato, più potente di prima, grazie alle pressioni fortissime di investitori come Microsoft e alla minaccia di dimissioni di massa da parte dei dipendenti. L'inchiesta del New Yorker descrive questo episodio, soprannominato "the Blip", come un momento cruciale che ha ridefinito gli equilibri di potere all'interno dell'azienda, mettendo in luce l'enorme influenza di Altman e dei suoi sostenitori.
Ma non è solo Sutskever a lanciare l'allarme. Anche Dario Amodei, un altro ex pezzo da novanta di OpenAI che ha poi fondato la rivale Anthropic, ha lasciato traccia del suo pensiero in oltre 200 pagine di appunti privati. In un passaggio, le parole di Altman vengono definite senza mezzi termini "stronzate" (bullshit). Addirittura, Amodei avrebbe confidato ad amici di essersi sentito "psicologicamente abusato" da Altman. In una nota privata, la sua conclusione era netta: "Il problema di OpenAI è Sam stesso".
Sicurezza Sacrificata sull'Altare del Profitto?
Una delle accuse più gravi che emerge dall'inchiesta è quella di aver tradito la missione originaria di OpenAI. Nata come organizzazione no-profit con l'obiettivo di sviluppare un'intelligenza artificiale sicura e a beneficio di tutta l'umanità, si sarebbe trasformata in una macchina da soldi orientata al profitto. I team dedicati alla sicurezza, come quello sulla "superalignment", sarebbero stati di fatto smantellati o depotenziati, con risorse irrisorie rispetto a quanto promesso pubblicamente. Quando i giornalisti hanno chiesto di parlare con i ricercatori che si occupano di sicurezza esistenziale, un portavoce di OpenAI avrebbe risposto: "Cosa intendete per 'sicurezza esistenziale'? Non è, tipo, una cosa reale".
Questo presunto disinteresse per la sicurezza assume contorni ancora più foschi se si considerano le potenziali conseguenze. Come scrive Farrow su X, "i pericoli non sono più una fantasia". L'IA è già utilizzata in operazioni militari in tutto il mondo, e OpenAI stessa ha siglato un accordo con il Pentagono. Inoltre, l'azienda si trova ad affrontare ben sette cause legali per omicidio colposo, in cui si sostiene che le "allucinazioni" di ChatGPT abbiano contribuito a suicidi e persino a un omicidio.
- Cause per omicidio colposo: Diverse famiglie hanno intentato causa contro OpenAI sostenendo che il chatbot abbia incoraggiato o rafforzato le psicosi di persone vulnerabili, portandole a gesti estremi.
- Uso militare: L'integrazione dell'IA di OpenAI nelle infrastrutture militari solleva enormi questioni etiche, soprattutto dopo che la rivale Anthropic aveva rifiutato un accordo simile per timori legati alla sicurezza.
- Impatto sul lavoro: La prospettiva di una perdita massiccia di posti di lavoro a causa dell'automazione guidata dall'IA è sempre più concreta, con stime che parlano di milioni di persone a rischio.
Un Futuro nelle Mani di Pochi
La domanda che Ronan Farrow pone è cruciale: "Perché tutto questo è importante?". È importante perché l'economia globale sta diventando sempre più dipendente da un pugno di sistemi di intelligenza artificiale. Se questa "bolla" dovesse scoppiare, le conseguenze sarebbero catastrofiche, ben oltre il destino di una singola azienda. Stiamo affidando la costruzione di una tecnologia potenzialmente trasformativa, nel bene e nel male, a un piccolo gruppo di persone. E se la persona al comando di questo gruppo è descritta dai suoi stessi collaboratori come un manipolatore seriale "non vincolato alla verità", abbiamo il diritto, e il dovere, di essere preoccupati.
Conclusione: Fidarsi è Bene, ma...
L'inchiesta del New Yorker non fornisce risposte definitive, ma solleva dubbi enormi e legittimi. Sam Altman è senza dubbio un visionario, un uomo che ha accelerato il futuro come pochi altri. Ma la sua genialità e la sua capacità di persuasione sono al servizio del bene comune, come recita la missione originale di OpenAI, o dei suoi interessi personali e di quelli dei suoi investitori? Le accuse di menzogna, manipolazione e disprezzo per la sicurezza sono troppo gravi per essere ignorate. Mentre l'intelligenza artificiale continua a evolversi a una velocità vertiginosa, la questione della governance e della fiducia in chi la controlla diventa la sfida più importante del nostro tempo. Forse, prima di correre a braccia aperte verso il futuro che Altman ci promette, dovremmo fermarci un attimo a riflettere. E chiederci, con molta onestà, se possiamo davvero fidarci.
