Basta Fiducia Cieca: Ex-OpenAI Lancia Averi per "Mettere in Regola" le Intelligenze Artificiali

Stanchi di dovervi fidare di ciò che le grandi aziende tech dicono sulla sicurezza delle loro IA? Non siete i soli. Miles Brundage, ex responsabile delle politiche di OpenAI, ha appena lanciato Averi, un istituto no-profit che vuole cambiare le regole del gioco, introducendo verifiche esterne e standard rigorosi per tutti. Scopriamo insieme perché questa potrebbe essere una svolta epocale per il futuro dell'intelligenza artificiale.
La notizia

Amici, parliamoci chiaro. L'intelligenza artificiale è ovunque: ci aiuta a scrivere, a creare immagini, a programmare e persino a scoprire nuovi farmaci. È una rivoluzione entusiasmante, ma c'è un "però" grande come una casa: chi controlla i controllori? Finora, la risposta è stata semplice: si controllano da soli. Le stesse aziende che creano questi potentissimi modelli di IA sono anche quelle che ci dicono "tranquilli, è tutto sicuro". Ma possiamo davvero fidarci sulla parola? Secondo Miles Brundage, uno che questo mondo lo conosce molto bene dall'interno, la risposta è no. E per questo ha deciso di agire.

Chi è Miles Brundage e perché ha lasciato OpenAI?

Miles Brundage non è l'ultimo arrivato. Per sette lunghi anni, ha lavorato in OpenAI, uno dei laboratori di IA più importanti al mondo, arrivando a ricoprire ruoli di primo piano come responsabile della ricerca sulle politiche aziendali. Ha lasciato l'azienda nell'ottobre del 2024, spiegando di volere più indipendenza e libertà per affrontare i problemi di sicurezza che riguardano l'intero settore dell'IA. La sua non è stata una porta sbattuta, ma una scelta ponderata, dettata da una convinzione profonda: il mondo, e le stesse aziende di IA, non sono ancora pronte per l'intelligenza artificiale generale (AGI).

La sua esperienza gli ha mostrato una falla nel sistema. "In un certo senso, oggi ognuno scrive le proprie regole", ha dichiarato Brundage a Fortune. "Le compagnie stanno definendo in autonomia le norme". Immaginate se le case farmaceutiche potessero approvare da sole i propri farmaci, o se i produttori di automobili potessero certificare in autonomia la sicurezza dei loro veicoli. Non suona benissimo, vero? Eppure, nel Far West dell'IA, questa è la prassi.

Ecco Averi: L'Arbitro Indipendente che Mancava

Per rispondere a questa esigenza, Brundage ha fondato l'AI Verification and Evaluation Research Institute (Averi). Attenzione, non si tratta di un'azienda che vuole fare concorrenza a OpenAI o Google. Averi è un'organizzazione no-profit, un "think tank", il cui obiettivo non è condurre direttamente le verifiche, ma piuttosto fare da coordinatore: definire gli standard, le regole del gioco che società di consulenza, compagnie di assicurazione e startup specializzate in sicurezza dovranno seguire per certificare i modelli di IA.

L'idea è semplice ma rivoluzionaria: creare un ecosistema di valutazione di terze parti, indipendente e affidabile. Averi vuole essere l'ente che scrive il manuale per gli arbitri, assicurandosi che tutti usino lo stesso metro di giudizio, uno che sia rigoroso e trasparente.

Il progetto ha già dimostrato di avere le gambe per camminare, raccogliendo 7,5 milioni di dollari da un gruppo di finanziatori che include nomi importanti della Silicon Valley, come l'ex presidente di Y Combinator, Geoff Ralston. La cosa più interessante? Tra i donatori ci sono anche dipendenti delle stesse grandi aziende di IA. Brundage li ha definiti, con una battuta efficace, "persone che sanno dove sono sepolti i cadaveri" e che desiderano una maggiore responsabilità nel settore. Questo la dice lunga sulla reale percezione del problema anche tra gli "addetti ai lavori".

Come Funzionerà la Verifica? I 4 Livelli di "Garanzia IA"

Insieme all'annuncio della sua nascita, Averi ha pubblicato un documento di ricerca che delinea un quadro dettagliato per gli audit indipendenti. Al centro di tutto ci sono i cosiddetti "AI Assurance Levels" (AAL), ovvero Livelli di Garanzia dell'IA. Si tratta di un sistema a quattro livelli per calibrare e comunicare il grado di fiducia che si può riporre in un audit:

  • Livello 1: Corrisponde più o meno alla situazione attuale, con test limitati da parte di terzi e un accesso ristretto ai modelli.
  • Livelli intermedi: Prevedono un'analisi sempre più approfondita delle pratiche di sicurezza, della governance interna delle aziende e un accesso maggiore ai dati e ai processi di addestramento.
  • Livello 4: L'obiettivo finale. Un livello di garanzia "a prova di trattato internazionale", talmente robusto da poter servire come base per accordi sulla sicurezza dell'IA tra nazioni.

Questo sistema permetterebbe finalmente di fare chiarezza. Un'azienda potrebbe dire "il nostro modello è certificato AAL-3", e tutti saprebbero esattamente cosa significa in termini di sicurezza e affidabilità, un po' come le classi energetiche per gli elettrodomestici.

Perché Proprio Adesso? La Pressione del Mercato e delle Assicurazioni

Brundage è realista: sa che, senza obblighi di legge, convincere i colossi tech a sottoporsi a controlli esterni non sarà facile. Ma la spinta potrebbe non arrivare dai governi, bensì dal mercato stesso. Pensateci:

  1. Le grandi aziende clienti: Una multinazionale che vuole integrare un'IA nei suoi processi critici (ad esempio, nella gestione finanziaria o nella sanità) vorrà delle garanzie. Potrebbe iniziare a richiedere una certificazione Averi come condizione per l'acquisto, per proteggersi da rischi nascosti.
  2. Le compagnie di assicurazione: Questo è un punto chiave. Le assicurazioni potrebbero rifiutarsi di coprire i rischi legati all'uso di IA se le aziende non possono dimostrare di aver superato un audit indipendente. "Le assicurazioni si muovono in fretta", sottolinea Brundage.

In pratica, la verifica indipendente potrebbe diventare non solo una questione etica, ma una necessità economica. "Sono interessato a capire cosa costringerà le aziende a sedersi al tavolo", ha detto Brundage. "Stiamo cercando di cambiare gli incentivi, non solo di accettarli per come sono".

Conclusione: Un Passo Necessario per un Futuro Sostenibile

La nascita di Averi è, a mio avviso, una delle notizie più importanti e positive nel panorama dell'intelligenza artificiale degli ultimi tempi. Segna un punto di svolta, il passaggio da un'adolescenza ribelle e autoreferenziale a una prima fase di maturità. L'idea che le aziende "si facciano i compiti e se li correggano da sole" non è più sostenibile, data la potenza e la pervasività che queste tecnologie stanno raggiungendo.

Certo, la strada per Averi sarà tutta in salita. Dovrà guadagnarsi la fiducia del settore, creare standard che siano al passo con l'evoluzione fulminea della tecnologia e resistere alle inevitabili pressioni delle lobby. Ma l'iniziativa di Miles Brundage ha il merito di aver acceso un faro su un problema che non potevamo più permetterci di ignorare. Forse, grazie ad Averi, il futuro dell'IA sarà non solo più potente, ma anche più sicuro, trasparente e, finalmente, affidabile. E non sulla base di una promessa, ma di una verifica.