Dal caso Mata vs. Avianca negli Stati Uniti al
provvedimento del Tribunale di Firenze sull'uso di sentenze
inventate, esistono ormai pattern chiari di "come ChatGPT
può rovinarti la giornata". Cinque errori, cinque soluzioni.
Premessa: il problema non è ChatGPT, è l'aspettativa sbagliata
ChatGPT è uno strumento eccellente di scrittura assistita. Non è
uno strumento di ricerca giurisprudenziale italiana. Confondere i
due piani è la radice di tutti i problemi che vediamo nei
provvedimenti disciplinari del 2025-2026.
Lo strumento giusto per il compito sbagliato produce esattamente
quello che hanno avuto i colleghi sanzionati: testo plausibile,
sintatticamente perfetto, contenente — incidentalmente — citazioni
di sentenze che non esistono.
Errore 1 — Citare sentenze inventate dall'AI
Il pattern più documentato e più dannoso. ChatGPT, quando non
conosce una sentenza specifica, può generare numeri,
date e principi che sembrano credibili ma sono
pura invenzione statistica del modello.
Casi reali documentati:
-
Tribunale di
Siracusa — sanzione di 800 euro a un collega che ha citato
sentenze fittizie generate da ChatGPT
-
Mata v. Avianca (USA, 2023) — caso scuola: due
avvocati di New York multati 5.000 dollari ciascuno per aver
citato 6 sentenze federali inesistenti generate da ChatGPT
-
Tribunale di Firenze (2024) — provvedimento
cautelare contro avvocato che ha allegato precedenti fasulli a
un ricorso d'urgenza
Soluzione operativa: ogni numero di sentenza
citato dall'AI deve essere verificato su banca
dati primaria (Italgiure, Cassazione.net, ItalgiureWeb) prima del
deposito. Se la sentenza non esiste, si rimuove la citazione e si
riformula l'argomentazione. Non si "verifica con un'altra
ChatGPT" — quello è il modo per moltiplicare l'errore.
Regola d'oro — Se non hai letto la sentenza che stai citando, non citarla.
Vale per gli stagisti, vale per l'AI.
Errore 2 — Caricare atti riservati su ChatGPT free
Quando si usa ChatGPT versione gratuita o consumer (Plus),
i dati inviati possono essere usati per addestramento del modello,
salvo opt-out esplicito. Per gli atti coperti da segreto difensivo
(art. 391-bis c.p.p.) o per documenti contenenti dati personali
sensibili dei clienti, questo è un problema serio sotto due profili:
- GDPR: trasferimento di dati personali a fornitore extra-UE senza adeguate garanzie
- Deontologico: violazione del dovere di custodia documenti del cliente
Soluzione operativa:
- Per uso professionale, scegliere ChatGPT Enterprise / Team o equivalenti business con DPA firmato
- Verificare che il fornitore garantisca no-training sui dati caricati
-
Per atti con segreto difensivo, usare
sistemi specializzati con server UE e contratto di confidenzialità
esplicito (es. LegaleAI)
- Anonimizzare quando possibile: sostituire nomi e dati identificativi prima del caricamento
Errore 3 — Affidarsi al "tono giuridico" senza verificare il contenuto
ChatGPT è eccezionalmente bravo a riprodurre lo stile
forense italiano: lessico tecnico, formule rituali, struttura
argomentativa. Questo crea un effetto di autorità
illusoria: il testo "suona" tecnicamente corretto, e per
un revisore distratto basta.
Ma sotto la superficie possono esserci:
- Norme citate con numero corretto ma riferite a una versione abrogata
- Riferimenti a istituti che non esistono nel diritto italiano (false amicizie da modelli addestrati prevalentemente in inglese)
- Sussunzione errata: principi corretti applicati a fattispecie sbagliate
Soluzione operativa: revisionare l'atto come se
fosse stato scritto da un collaboratore al primo anno di pratica,
non da un esperto. Tutto va riletto con sospetto attivo,
non con la presunzione che "se è stato scritto bene, sarà giusto".
Errore 4 — Usare ChatGPT come motore di ricerca giurisprudenziale
Domande tipo "quale sentenza Cassazione 2024 sull'omicidio
stradale parla di patteggiamento?" tipicamente ottengono risposta
con un numero specifico. Quel numero, in molti casi, è inventato
dal modello con la plausibilità statistica: assomiglia
a un numero reale ma non lo è.
I modelli generalisti come ChatGPT non hanno accesso strutturato a
Italgiure o ad altre banche dati italiane. Quando "rispondono" su
giurisprudenza italiana stanno ricordando frammenti del proprio
training set, mescolati e ricomposti.
Soluzione operativa:
-
Per ricerca giurisprudenziale usare strumenti dedicati: Italgiure,
Pluris, OneLegale, Cassazione.net, oppure
AI legali verticali con accesso
diretto a sentenze verificate
- Se si usa ChatGPT, chiedere il principio di diritto generico ma non chiedere mai numeri specifici
- Cross-check: se l'AI cita una sentenza, ricercarla su banca dati ufficiale prima di usarla
Errore 5 — Non documentare l'uso dell'AI
L'art. 4 della Legge 132/2025 impone
alfabetizzazione AI documentata. L'AI Act europeo chiede tracciabilità.
Il Codice deontologico forense impone diligenza professionale.
Non documentare l'uso dell'AI in studio significa:
- Non poter dimostrare diligenza in caso di contestazione disciplinare
- Non poter ricostruire come è stato prodotto un atto, se ne nasce contenzioso
- Esporsi a sanzioni amministrative AI Act per insufficienza di alfabetizzazione documentata
Soluzione operativa minima:
- Mantenere un registro semplice (anche un foglio Excel) che traccia: data, tipo di atto, strumento AI usato, professionista responsabile della revisione finale
- Inserire in lettera di incarico una clausola informativa sull'uso eventuale di strumenti AI di supporto
- Aggiornare periodicamente la formazione AI dei collaboratori (anche solo 2 ore l'anno documentate)
- Salvare la cronologia delle interazioni AI con il sistema usato (le piattaforme professionali offrono questa funzione nativamente)
Tre punti chiave che riassumono i cinque errori
Se devi ricordare solo tre cose dopo aver letto questo articolo:
-
L'AI è un assistente, non un avvocato. La
responsabilità professionale resta sempre in capo a chi firma.
Sempre.
-
Non esiste numero di sentenza che si possa citare senza
averlo verificato. Né da AI, né da collaboratore, né
dalla memoria. Sempre verifica.
-
La privacy degli atti del cliente non è negoziabile.
Se non hai un contratto privacy esplicito col fornitore AI, non
caricare nulla di riservato.
Cosa cambia con un'AI legale verticale
Le AI legali specializzate come LegaleAI
eliminano alla radice quattro dei cinque errori sopra:
-
Anti-allucinazione integrata: il sistema verifica
automaticamente se le sentenze citate esistono prima di restituire
l'output. Errore 1 mitigato strutturalmente
-
Server UE + DPA firmato: conformità GDPR e
segreto difensivo by design. Errore 2 mitigato
-
Accesso diretto a 184k+ sentenze Cassazione +
codici (CC, CPC, CPP, CP) + Normattiva. Errore 4 risolto
-
Tracciamento automatico di ogni interazione e
revisione, esportabile. Errore 5 mitigato
Il quinto errore — affidarsi al tono senza verificare — è
umano: nessuna AI può eliminarlo. Resta in capo
all'avvocato leggere quello che firma. Sempre.
Prova LeXi: l'AI legale con anti-allucinazione
184k+ sentenze Cassazione verificate, server UE, DPA firmato.
Demo di 20 minuti su un caso suo, gratis.
Richiedi una demo gratuita →