9 min di lettura

5 errori da evitare
quando usi ChatGPT per atti legali

Dal caso Mata vs. Avianca negli Stati Uniti al provvedimento del Tribunale di Firenze sull'uso di sentenze inventate, esistono ormai pattern chiari di "come ChatGPT può rovinarti la giornata". Cinque errori, cinque soluzioni.

Premessa: il problema non è ChatGPT, è l'aspettativa sbagliata

ChatGPT è uno strumento eccellente di scrittura assistita. Non è uno strumento di ricerca giurisprudenziale italiana. Confondere i due piani è la radice di tutti i problemi che vediamo nei provvedimenti disciplinari del 2025-2026.

Lo strumento giusto per il compito sbagliato produce esattamente quello che hanno avuto i colleghi sanzionati: testo plausibile, sintatticamente perfetto, contenente — incidentalmente — citazioni di sentenze che non esistono.

Errore 1 — Citare sentenze inventate dall'AI

Il pattern più documentato e più dannoso. ChatGPT, quando non conosce una sentenza specifica, può generare numeri, date e principi che sembrano credibili ma sono pura invenzione statistica del modello.

Casi reali documentati:

Soluzione operativa: ogni numero di sentenza citato dall'AI deve essere verificato su banca dati primaria (Italgiure, Cassazione.net, ItalgiureWeb) prima del deposito. Se la sentenza non esiste, si rimuove la citazione e si riformula l'argomentazione. Non si "verifica con un'altra ChatGPT" — quello è il modo per moltiplicare l'errore.

Regola d'oro — Se non hai letto la sentenza che stai citando, non citarla. Vale per gli stagisti, vale per l'AI.

Errore 2 — Caricare atti riservati su ChatGPT free

Quando si usa ChatGPT versione gratuita o consumer (Plus), i dati inviati possono essere usati per addestramento del modello, salvo opt-out esplicito. Per gli atti coperti da segreto difensivo (art. 391-bis c.p.p.) o per documenti contenenti dati personali sensibili dei clienti, questo è un problema serio sotto due profili:

Soluzione operativa:

Errore 3 — Affidarsi al "tono giuridico" senza verificare il contenuto

ChatGPT è eccezionalmente bravo a riprodurre lo stile forense italiano: lessico tecnico, formule rituali, struttura argomentativa. Questo crea un effetto di autorità illusoria: il testo "suona" tecnicamente corretto, e per un revisore distratto basta.

Ma sotto la superficie possono esserci:

Soluzione operativa: revisionare l'atto come se fosse stato scritto da un collaboratore al primo anno di pratica, non da un esperto. Tutto va riletto con sospetto attivo, non con la presunzione che "se è stato scritto bene, sarà giusto".

Errore 4 — Usare ChatGPT come motore di ricerca giurisprudenziale

Domande tipo "quale sentenza Cassazione 2024 sull'omicidio stradale parla di patteggiamento?" tipicamente ottengono risposta con un numero specifico. Quel numero, in molti casi, è inventato dal modello con la plausibilità statistica: assomiglia a un numero reale ma non lo è.

I modelli generalisti come ChatGPT non hanno accesso strutturato a Italgiure o ad altre banche dati italiane. Quando "rispondono" su giurisprudenza italiana stanno ricordando frammenti del proprio training set, mescolati e ricomposti.

Soluzione operativa:

Errore 5 — Non documentare l'uso dell'AI

L'art. 4 della Legge 132/2025 impone alfabetizzazione AI documentata. L'AI Act europeo chiede tracciabilità. Il Codice deontologico forense impone diligenza professionale.

Non documentare l'uso dell'AI in studio significa:

Soluzione operativa minima:

Tre punti chiave che riassumono i cinque errori

Se devi ricordare solo tre cose dopo aver letto questo articolo:

Cosa cambia con un'AI legale verticale

Le AI legali specializzate come LegaleAI eliminano alla radice quattro dei cinque errori sopra:

Il quinto errore — affidarsi al tono senza verificare — è umano: nessuna AI può eliminarlo. Resta in capo all'avvocato leggere quello che firma. Sempre.

Prova LeXi: l'AI legale con anti-allucinazione

184k+ sentenze Cassazione verificate, server UE, DPA firmato. Demo di 20 minuti su un caso suo, gratis.

Richiedi una demo gratuita →