Avvocato sanzionato per sentenze inventate dall'AI: il caso di Siracusa
Un avvocato di Siracusa è stato condannato a pagare oltre 30.000 euro per aver inserito in atti giudiziari quattro sentenze della Cassazione generate dall'intelligenza artificiale e mai esistite. La sentenza n. 338/2026 del giudice Alfredo Spitaleri segna un precedente importante per l'uso dell'AI nella professione forense.
I fatti: quattro sentenze inesistenti
Il caso nasce da un procedimento civile presso il Tribunale di Siracusa, nel quale un avvocato ha depositato atti contenenti riferimenti a quattro sentenze della Corte di Cassazione: Cass. n. 1216/2000, Cass. n. 8379/2006, Cass. n. 14795/2003 e Cass. n. 4553/2004. Citazioni apparentemente solide, con numeri di registro, anno e massime dettagliate.
Il giudice Alfredo Spitaleri, insospettito dalla formulazione delle massime, ha disposto una verifica puntuale. L'esito è stato inequivocabile: i numeri di sentenza esistono effettivamente negli archivi della Cassazione, ma il contenuto citato non corrisponde in alcun modo a quanto deciso dalla Corte. Non si trattava, dunque, di sentenze inventate dal nulla, ma di pronunce reali il cui contenuto è stato manipolato dall'intelligenza artificiale.
Questo dettaglio è cruciale. L'AI non ha generato numeri casuali: ha associato numeri di registro reali a massime plausibili ma false. Un tipo di errore particolarmente insidioso, perché supera il primo livello di verifica — la ricerca del numero — e può ingannare anche un professionista esperto che non approfondisca il contenuto effettivo della pronuncia.
Le sentenze citate non dicono quello che l'intelligenza artificiale sostiene. I numeri esistono, ma i principi di diritto sono stati interamente fabbricati.
La sanzione: 30.103 euro
Il giudice Spitaleri, con la sentenza n. 338/2026, ha applicato una sanzione articolata su tre voci distinte, per un totale di 30.103 euro:
- 14.103 euro per il rimborso delle spese legali alla controparte, costretta a difendersi da argomentazioni fondate su giurisprudenza inesistente
- 14.103 euro a titolo di risarcimento per lite temeraria, riconoscendo il danno processuale subito dalla parte avversa
- 2.000 euro alla Cassa delle Ammende, a titolo di sanzione per responsabilità processuale aggravata
Il fondamento normativo della condanna è l'art. 96 c.p.c., che disciplina la responsabilità aggravata per chi agisce o resiste in giudizio con mala fede o colpa grave. Il giudice ha ritenuto che l'inserimento di giurisprudenza non verificata in atti processuali configuri quantomeno una colpa grave, indipendentemente dall'intenzionalità della condotta.
La portata del precedente è significativa: per la prima volta in Italia, un giudice sanziona esplicitamente l'uso non verificato di output generati dall'intelligenza artificiale in sede processuale. La sentenza stabilisce un principio chiaro: l'utilizzo dell'AI non esonera il professionista dall'obbligo di verifica delle fonti.
La reazione dell'Ordine degli Avvocati
La vicenda ha suscitato un dibattito immediato nella comunità forense siracusana e nazionale. Giuseppe Gurrieri, vicepresidente dei penalisti di Siracusa, ha offerto una lettura equilibrata del caso, evitando tanto l'allarmismo quanto la minimizzazione.
L'intelligenza artificiale non è il problema. Il problema è la mancata verifica. Un appropriato utilizzo dello strumento può essere utile alla professione.
La posizione di Gurrieri riflette un orientamento condiviso da gran parte dell'avvocatura italiana: l'AI è uno strumento legittimo e potenzialmente prezioso, ma il suo utilizzo richiede un protocollo di verifica rigoroso. L'obbligo deontologico di diligenza professionale non si attenua perché il lavoro è stato delegato a un algoritmo. Al contrario, l'uso di strumenti automatizzati impone una responsabilità aggiuntiva di controllo.
Il caso di Siracusa si inserisce in un contesto internazionale già ricco di precedenti. Negli Stati Uniti, l'avvocato Steven Schwartz fu sanzionato nel 2023 per aver citato sentenze inesistenti generate da ChatGPT in una causa contro la compagnia aerea Avianca. In Colombia, un giudice ha utilizzato ChatGPT per redigere una sentenza, sollevando un dibattito sulla legittimità dell'uso dell'AI in sede giudicante. Il caso italiano aggiunge un tassello europeo a questa giurisprudenza emergente.
Cosa insegna questo caso agli studi legali
La sentenza n. 338/2026 del Tribunale di Siracusa non è un monito contro l'intelligenza artificiale. È un monito contro l'uso acritico di qualsiasi fonte non verificata. Le lezioni per la professione forense sono precise e operative.
- L'AI è uno strumento, non una fonte. Nessun output generato dall'intelligenza artificiale può essere inserito in un atto processuale senza una verifica indipendente su banche dati ufficiali
- Ogni citazione va verificata su banche dati certificate come Italgiure, DeJure, Pluris o i siti istituzionali della Corte di Cassazione. La verifica deve riguardare non solo l'esistenza della sentenza, ma il contenuto effettivo della pronuncia
- Il rischio non è solo economico ma anche disciplinare. Oltre alla sanzione pecuniaria, l'avvocato si espone a procedimenti disciplinari per violazione dei doveri di diligenza, competenza e lealtà processuale
- La responsabilità professionale non si delega all'algoritmo. L'avvocato firma l'atto, l'avvocato risponde dell'atto. Nessuno strumento tecnologico modifica questa catena di responsabilità
Per gli studi legali che intendono integrare l'AI nei propri flussi di lavoro, il caso Siracusa suggerisce l'adozione di un protocollo interno di validazione: ogni output dell'AI destinato a un atto processuale deve passare attraverso un controllo umano documentato, con riscontro sulle fonti primarie.
Come LegaleAI affronta il problema
Il caso di Siracusa evidenzia un problema strutturale degli strumenti di AI generativa generalisti: le cosiddette allucinazioni, ovvero la generazione di informazioni plausibili ma false. È un limite intrinseco dei modelli linguistici che non hanno accesso a banche dati verificate in tempo reale.
LegaleAI è stato progettato specificamente per mitigare questo rischio, attraverso un'architettura che mette la verifica al centro del processo:
- RAG su fonti verificate. Il sistema utilizza la tecnica del Retrieval-Augmented Generation, interrogando direttamente fonti come Normattiva e banche dati di giurisprudenza indicizzata. Le risposte sono ancorate a documenti reali, non generate ex novo
- Disclaimer automatico su ogni risposta. Ogni output include un avviso esplicito che ricorda all'utente l'obbligo di verifica indipendente. Non è un dettaglio formale: è un presidio deontologico integrato nello strumento
- Citazioni con link alle fonti originali. Quando LegaleAI cita una norma o una sentenza, fornisce il riferimento diretto alla fonte primaria, consentendo la verifica immediata con un clic
- L'AI come assistente, non come sostituto. L'architettura di LegaleAI è progettata per supportare il ragionamento del professionista, non per sostituirlo. Lo strumento suggerisce, l'avvocato decide
Nessuno strumento tecnologico può eliminare completamente il rischio di errore. Ma un sistema progettato con consapevolezza dei limiti dell'AI — e con il rispetto della deontologia forense italiana — può ridurre significativamente la probabilità che casi come quello di Siracusa si ripetano.
Conclusione
Il caso dell'avvocato di Siracusa non chiude una porta sull'intelligenza artificiale nella professione forense. La apre, ma con un cartello chiaro all'ingresso: verificare sempre, delegare mai. L'AI può rendere un avvocato più veloce, più informato, più efficiente. Ma non può renderlo più diligente. La diligenza resta una qualità esclusivamente umana, e il caso n. 338/2026 ce lo ricorda con 30.103 euro di chiarezza.
Provi LegaleAI. 14 giorni gratis.
L'assistente AI progettato per gli avvocati italiani. Conforme al Vademecum OdA Roma 2026. Da 20 euro al mese.
Inizia la prova gratuita