Ciao a tutti, amici lettori! Oggi parliamo di una notizia che sta facendo il giro del web e che tocca un tema caldissimo: il rapporto tra l'intelligenza artificiale e la creazione di contenuti. La protagonista è nientemeno che Wikipedia, la nostra amata enciclopedia online, che ha deciso di mettere un freno all'uso dell'AI per scrivere i suoi articoli. Una scelta forte, che merita di essere approfondita.
Proprio così, in occasione del suo 25° anniversario, la versione inglese di Wikipedia ha aggiornato le sue policy interne con una direttiva chiara e precisa: è vietato utilizzare i modelli linguistici di grandi dimensioni (LLM), come ChatGPT, Gemini e altri, per generare o riscrivere da zero le voci dell'enciclopedia. La decisione è arrivata dopo un'accesa discussione e un voto all'interno della vasta comunità di editor volontari, che ha sostenuto a larga maggioranza il divieto.
Perché questa decisione? Una questione di principi fondamentali
Vi starete chiedendo: ma perché questa chiusura nei confronti di una tecnologia così potente e, per certi versi, utile? La risposta di Wikipedia è radicata nei suoi principi fondanti. Secondo le nuove linee guida, l'uso degli LLM "spesso viola" diverse delle norme essenziali sui contenuti della piattaforma.
Quali sono questi principi? Principalmente tre:
- Verificabilità: Ogni informazione su Wikipedia deve essere supportata da fonti attendibili e citate. L'AI, come ben sappiamo, ha la tendenza a "inventare" informazioni e a creare citazioni false o non pertinenti, un fenomeno noto come "allucinazione".
- Punto di vista neutrale: Wikipedia si impegna a presentare le informazioni in modo equo e senza pregiudizi. Gli LLM, addestrati su enormi quantità di dati presi da internet, possono involontariamente riprodurre e amplificare i bias presenti in quei dati.
- Niente ricerche originali: L'enciclopedia non è il luogo per pubblicare idee o teorie inedite. I contenuti devono essere basati su materiale già pubblicato. L'AI, per sua natura, può generare testi che, pur sembrando plausibili, costituiscono di fatto una sintesi originale non supportata da fonti specifiche.
In parole povere, il rischio è che l'integrità e l'affidabilità, che sono il vero tesoro di Wikipedia, vengano compromesse. Lo stesso fondatore, Jimmy Wales, ha definito le "allucinazioni" dell'AI "un pasticcio", sottolineando come i modelli attuali siano ancora "lontani dall'essere abbastanza buoni" per gli standard di Wikipedia.
Non è un "No" assoluto: le eccezioni alla regola
Attenzione, però. Non si tratta di una crociata contro l'intelligenza artificiale in toto. La comunità di Wikipedia ha riconosciuto che, se usata con criterio e sotto stretta supervisione umana, l'AI può essere uno strumento di supporto. Per questo, sono state previste due specifiche eccezioni al divieto generale:
- Traduzioni: È consentito l'uso dell'AI per tradurre articoli da altre versioni linguistiche di Wikipedia. Tuttavia, la condizione è ferrea: l'editor che se ne occupa deve conoscere fluentemente entrambe le lingue per poter revisionare accuratamente il testo e assicurarsi che la traduzione sia fedele e precisa.
- Piccole modifiche e copy-editing: Gli editor possono avvalersi degli LLM per suggerire modifiche di base ai propri scritti, come correggere errori di battitura, migliorare la formattazione o la grammatica. Anche in questo caso, è obbligatoria la revisione umana e l'AI non deve introdurre nuovi contenuti o alterare il significato del testo in modo che non sia più supportato dalle fonti citate.
La parola d'ordine, quindi, è cautela. La policy stessa avverte che "gli LLM possono andare oltre ciò che gli si chiede e cambiare il significato del testo". L'arbitro finale deve sempre e comunque essere il giudizio umano.
Una sfida per il futuro della conoscenza online
Questa mossa di Wikipedia non arriva in un momento casuale. L'uso dell'intelligenza artificiale per cercare informazioni e produrre contenuti è esploso, al punto che, secondo alcune analisi, ChatGPT starebbe erodendo il traffico mensile di Wikipedia, soprattutto negli Stati Uniti. La decisione di vietare i contenuti generati dall'AI può essere vista come un modo per difendere la propria identità e riaffermare il valore della conoscenza curata e verificata dagli esseri umani.
Resta aperta la questione di come verranno applicate queste regole. Identificare con certezza un testo scritto da un'AI non è sempre facile. Tuttavia, la comunità si baserà sulle policy esistenti: un articolo verrà valutato per la sua qualità, la presenza di fonti e il rispetto delle linee guida, indipendentemente da chi o cosa lo abbia scritto.
La scelta di Wikipedia, in un certo senso, è un tentativo di "salvare internet da una sala degli specchi", come ha scritto un commentatore, assicurando che la "somma di tutta la conoscenza umana" non diventi una semplice eco di un algoritmo.
Conclusione: Un punto di vista personale
Personalmente, trovo la decisione di Wikipedia non solo comprensibile, ma anche coraggiosa. In un'epoca in cui la velocità e la quantità sembrano prevalere sulla qualità e l'accuratezza, porre dei paletti e ribadire l'importanza del processo umano di ricerca, verifica e scrittura è un segnale forte. Non è una chiusura al progresso, ma un invito a un utilizzo più consapevole e responsabile della tecnologia. L'intelligenza artificiale è uno strumento potentissimo, ma come ogni strumento, il suo valore dipende da come lo usiamo. Wikipedia ci ricorda che dietro la conoscenza c'è un lavoro di cura, di dibattito e di responsabilità che, almeno per ora, nessuna macchina può sostituire completamente. È una scommessa sull'intelligenza... umana.
