La legge esiste. E riguarda anche voi.

Per mesi il dibattito sull'AI nel diritto italiano è rimasto confinato al regolamento europeo — l'AI Act (UE 2024/1689) — e ai casi giurisprudenziali che facevano discutere: il Tribunale di Firenze che sanziona un avvocato per citazioni inesistenti generate dall'AI, il Tribunale di Torino che riconosce la responsabilità aggravata ex art. 96 c.p.c. per atti con riferimenti fabricati. Adesso però c'è anche una legge nazionale: la Legge 132/2025, approvata a settembre 2025 e in vigore dal 1° ottobre 2025.

Non è una legge pensata solo per le big tech o per le pubbliche amministrazioni. Riguarda chiunque utilizzi sistemi di intelligenza artificiale in un contesto professionale — e uno studio legale che usa un assistente AI come LeXi è a tutti gli effetti un utilizzatore professionale di un sistema AI.

Testo di riferimento

Legge 9 agosto 2025, n. 132 — "Disposizioni e delega al Governo in materia di intelligenza artificiale." In vigore dal 1° ottobre 2025. Si applica in coordinamento con il Regolamento (UE) 2024/1689 (AI Act europeo).

I tre pilastri della legge che interessano gli studi legali

1. Principio antropocentrico: l'AI serve l'avvocato, non lo sostituisce

Il principio fondante della legge è che l'intelligenza artificiale deve essere "al servizio dell'uomo". Tradotto in termini pratici per uno studio legale: ogni output generato da un sistema AI — un parere, una bozza di atto, un'analisi giurisprudenziale — deve passare sotto il controllo e la responsabilità di un professionista umano prima di essere usato o trasmesso.

Questo non è una novità concettuale per chi esercita la professione forense: l'obbligo deontologico di competenza e diligenza (art. 12 e 26 del codice deontologico forense) ha sempre imposto la verifica dell'operato di collaboratori e strumenti. La legge 132/2025 lo codifica anche sul piano legislativo per gli strumenti AI.

2. Obbligo di AI Literacy (art. 4): la formazione non è facoltativa

L'articolo 4 è probabilmente il punto più operativo per gli studi. Impone a fornitori e utilizzatori di sistemi AI di garantire "un livello adeguato di alfabetizzazione in materia di intelligenza artificiale" per tutti coloro che li usano.

In concreto: un avvocato che usa LeXi o qualsiasi altro assistente AI deve avere una comprensione sufficiente di come funziona lo strumento — dei suoi limiti, dei rischi di allucinazione, delle aree in cui la verifica manuale è indispensabile. Non è richiesto diventare tecnici informatici. È richiesto non usare l'AI alla cieca.

Implicazione pratica

Un assistente AI ben progettato dovrebbe esplicitare i propri limiti all'utente — non solo fornire risposte, ma segnalare quando un'informazione richiede verifica su fonte primaria. Questo è già nel DNA di LeXi: ogni risposta che cita norma o giurisprudenza include l'indicazione della fonte da verificare.

3. Tracciabilità e trasparenza: il cliente ha diritto di sapere

La legge introduce obblighi di tracciabilità e trasparenza sull'uso dell'AI. Per gli avvocati, questo apre una domanda che ancora attende risposta definitiva dal CNF e dagli Ordini: quando un parere è stato assistito da un sistema AI, il cliente deve essere informato?

In assenza di una circolare deontologica specifica, il criterio prudenziale è quello della trasparenza proattiva: informare il cliente che nella preparazione del lavoro vengono utilizzati strumenti AI, specificando che la responsabilità professionale rimane integralmente in capo all'avvocato.

Chi vigila: AgID e ACN

La legge nomina due autorità nazionali competenti per l'AI:

Una delle critiche mosse alla legge — sollevata tra gli altri da Amnesty International — è che le autorità designate non sono pienamente indipendenti rispetto al potere esecutivo, a differenza di quanto previsto dall'AI Act europeo. Sul piano pratico per gli studi legali, nel breve periodo, il livello di enforcement diretto verso la professione forense sarà limitato. Il vero rischio disciplinare e reputazionale resta quello deontologico, non quello amministrativo.

Riepilogo: cosa cambia operativamente per lo studio

Obbligo Cosa significa per lo studio Urgenza
Responsabilità umana Ogni output AI deve essere revisionato dall'avvocato prima dell'uso. Non delegare integralmente la redazione di atti o pareri. Immediata
AI Literacy (art. 4) Formarsi sui limiti dello strumento usato: allucinazioni, citazioni da verificare, aree di incertezza. Aggiornare i collaboratori di studio. Entro 2025/2026
Trasparenza verso i clienti Valutare se inserire in lettera di incarico o informativa un riferimento all'uso di strumenti AI di supporto. Medio termine
Tracciabilità interna Documentare quali attività sono assistite da AI. Utile anche in caso di contestazioni deontologiche. Medio termine

Il coordinamento con l'AI Act europeo

La Legge 132/2025 non opera in isolamento: si integra con l'AI Act europeo (Reg. UE 2024/1689), che classifica i sistemi AI per livello di rischio. Gli assistenti legali come LeXi rientrano nella categoria dei sistemi a rischio limitato — non in quella ad alto rischio, riservata ad esempio ai sistemi usati nell'amministrazione della giustizia per decidere autonomamente su condanne o misure cautelari.

Per i sistemi a rischio limitato, l'AI Act prevede principalmente obblighi di trasparenza: l'utente deve sapere che sta interagendo con un sistema AI (non applicabile nel nostro contesto, dove l'avvocato usa lo strumento consapevolmente) e il sistema deve essere progettato per non indurre in errore.

La Commissione Europea ha attivato un AI Act Service Desk per supportare imprese e PA nella conformità. Utile come riferimento per chi voglia approfondire le implicazioni pratiche del regolamento europeo sulla propria attività.

La nostra posizione: la compliance non è un ostacolo, è un vantaggio

LegaleAI è stato progettato tenendo conto di questo scenario normativo. LeXi non sostituisce il ragionamento dell'avvocato: lo affianca, segnala le fonti da verificare, avverte quando un'analisi richiede approfondimento su banche dati primarie. Il controllo professionale rimane sempre in capo a chi esercita la professione.

La Legge 132/2025 non rende più complicato usare l'AI in studio. Rende più chiaro come usarla correttamente — e traccia un confine netto tra chi usa questi strumenti con consapevolezza professionale e chi li delega senza supervisione.

Per gli avvocati che già usano o stanno valutando LeXi, la domanda pratica non è "posso usarlo?" ma "lo sto usando nel modo giusto?" La risposta passa da due cose: capire i limiti dello strumento, e mantenere la responsabilità professionale sugli output.

Vuole vedere LeXi in azione?

20 minuti di demo sul suo caso reale. Nessun impegno, nessuna carta di credito.

Richiedi una demo gratuita →