Immaginate la scena: siete in un'aula di tribunale, il vostro avvocato sta per esporre la vostra difesa con passione e competenza. Cita ben quattro sentenze della Corte di Cassazione, con tanto di passaggi virgolettati, per sostenere la vostra causa. Sembra tutto perfetto, se non fosse per un piccolo, insignificante dettaglio: quelle sentenze non sono mai esistite. Non è la trama di un film, ma quello che è realmente accaduto a Siracusa, dove un legale si è fidato un po' troppo dell'intelligenza artificiale, finendo per essere sanzionato dal giudice.
La vicenda, che sta facendo il giro del web e degli studi legali di tutta Italia, emerge dalla sentenza numero 338 del 20 febbraio scorso, emessa dal Tribunale di Siracusa. Al centro della questione c'era una causa relativa a un contratto di sublocazione, ma l'attenzione dei giudici si è concentrata su un aspetto ben più moderno e spinoso: l'uso, o meglio, l'abuso degli strumenti di intelligenza artificiale generativa nella redazione degli atti giudiziari.
Il "copia e incolla" dall'AI che è costato caro
L'avvocato della difesa, nel tentativo di rafforzare la posizione della sua cliente, ha inserito nella sua memoria difensiva i riferimenti e gli estratti di quattro pronunce della Cassazione. Un lavoro apparentemente meticoloso, che però ha insospettito il giudice. Quest'ultimo, con grande scrupolo, ha deciso di fare una verifica nel Centro Elettronico di Documentazione (CED) della Corte di Cassazione. La scoperta è stata a dir poco sconcertante: nessuna delle sentenze citate conteneva i passaggi riportati dal legale. In alcuni casi, le sentenze esistevano ma trattavano argomenti completamente diversi; in altri, i virgolettati erano pura invenzione.
Di fronte a un simile "abbaglio", il giudice ha escluso l'ipotesi di un semplice errore o di un refuso. Come si legge nella sentenza, "l'unica ipotesi residua, e al tempo stesso la più compatibile con la fenomenologia concreta del caso, è che il difensore si sia avvalso di uno strumento di intelligenza artificiale generativa senza sottoporre gli output ottenuti alla doverosa verifica sulle fonti primarie". In parole povere, l'avvocato ha chiesto aiuto a un chatbot, ha ottenuto una risposta verosimile e l'ha inserita nel suo atto senza controllare se fosse vera. Un errore che il tribunale ha definito "colpa grave, se non malafede".
Le "Allucinazioni" dell'Intelligenza Artificiale: un pericolo da non sottovalutare
Quello che è successo a Siracusa è un esempio lampante di un fenomeno noto come "allucinazione da intelligenza artificiale". I modelli di IA generativa, come ChatGPT e simili, non sono banche dati giuridiche. Il loro scopo non è "ricordare" o "sapere", ma generare sequenze di testo che siano statisticamente plausibili, basandosi su enormi quantità di dati con cui sono stati addestrati. Questo significa che, se non trovano una risposta precisa, possono letteralmente "inventare" informazioni che sembrano coerenti e corrette, ma che in realtà sono false.
Il giudice di Siracusa ha sottolineato un punto fondamentale: è ormai "fatto notorio", e quindi una conoscenza che ci si aspetta da qualsiasi operatore del diritto, che questi strumenti possono produrre risultati errati. Affidarsi ciecamente a loro senza una verifica umana e professionale è una negligenza che non può più essere tollerata.
Una triplice sanzione per l'uso acritico della tecnologia
L'utilizzo "pigro" dell'IA è costato molto caro al legale. Il tribunale non si è limitato a una semplice ramanzina, ma ha inflitto una pesante sanzione. L'avvocato è stato condannato per "lite temeraria", una norma che punisce chi agisce in giudizio con malafede o colpa grave. La condanna è stata triplice:
- Pagamento delle spese legali alla controparte vittoriosa per 14.103 euro.
- Un risarcimento del danno alla controparte di ulteriori 14.103 euro.
- Un versamento di 2.000 euro alla Cassa delle Ammende.
Intelligenza Artificiale e professione forense: uno strumento utile, ma da usare con la testa
Questo caso non deve portare a una demonizzazione dell'intelligenza artificiale. Come ha spiegato Giuseppe Gurrieri, vicepresidente della Camera penale di Siracusa, esistono già IA associate a banche dati giuridiche che vengono usate con profitto dagli avvocati. "Non scrivono gli atti, ma sviluppano determinati motivi di appello oppure analizzano documenti molto estesi. Quindi un appropriato utilizzo dello strumento può essere utile". L'IA può essere un assistente prezioso per velocizzare ricerche e analizzare grandi moli di dati, ma non può e non deve sostituire il ragionamento critico, la competenza e la responsabilità del professionista.
La vicenda di Siracusa è un monito per tutti i professionisti, non solo in ambito legale. La tecnologia offre opportunità straordinarie, ma la tentazione della "scorciatoia" può portare a errori madornali. La verifica delle fonti, il controllo umano e la diligenza professionale restano pilastri insostituibili, soprattutto quando in gioco ci sono i diritti e gli interessi delle persone.
Conclusioni: un punto di vista
Credo che la sentenza di Siracusa rappresenti un punto di svolta. Segna il confine tra l'uso intelligente della tecnologia e la delega acritica delle proprie responsabilità. L'intelligenza artificiale è uno strumento potentissimo, capace di aumentare la nostra produttività in modi che fino a pochi anni fa erano inimmaginabili. Tuttavia, come ogni strumento, va maneggiato con cura e, soprattutto, con consapevolezza dei suoi limiti. Affidarsi a un algoritmo per trovare precedenti giurisprudenziali senza verificarli è come chiedere a un passante per strada un parere medico specialistico. Il risultato può essere verosimile, a volte persino convincente, ma quasi mai affidabile. La responsabilità finale, quella che fa la differenza tra un buon professionista e uno negligente, rimane e rimarrà sempre umana. La tecnologia può potenziare il nostro intelletto, non sostituirlo.
