8 min di lettura

AI Act per avvocati:
come adeguarsi entro il 2026

Il Regolamento UE 2024/1689 è in vigore dal 1° agosto 2024 ma diventa pienamente operativo per la maggior parte dei sistemi il 2 agosto 2026. Per gli studi legali italiani non significa rivoluzione: significa cambiare quattro abitudini.

L'AI Act non è solo "il problema delle Big Tech"

Quando il Parlamento europeo ha approvato il Regolamento UE 2024/1689 — l'AI Act — l'attenzione mediatica si è concentrata sui produttori di modelli generativi: OpenAI, Google, Anthropic, Mistral. Ma il regolamento si applica anche agli utilizzatori professionali dei sistemi AI, e questo include gli studi legali che integrano LeXi, ChatGPT Enterprise, Claude o Gemini nel proprio workflow quotidiano.

Lo studio legale è classificato dal regolamento come deployer (utilizzatore): non sviluppa il sistema, ma lo usa professionalmente. Gli obblighi sono proporzionati a questo ruolo, ma esistono e sono già in vigore.

Riferimento normativo — Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, pubblicato in Gazzetta Ufficiale dell'Unione Europea il 12 luglio 2024, in vigore dal 1° agosto 2024.

Le quattro tappe applicative da segnare in agenda

L'AI Act prevede un'applicazione progressiva su 36 mesi. Per uno studio legale è sufficiente conoscere le quattro date che producono effetti operativi diretti:

Data Cosa diventa applicabile Impatto su studi legali
2 febbraio 2025 Divieti su pratiche AI vietate (art. 5) + obbligo di alfabetizzazione AI (art. 4) Già operativo. Lo studio deve garantire formazione documentata sull'uso degli strumenti.
2 agosto 2025 Regole sui modelli GPAI (general purpose AI) e governance UE Indiretto. Riguarda i fornitori dei modelli che stiamo usando.
2 agosto 2026 Applicazione generale: sistemi ad alto rischio (Allegato III), trasparenza (art. 50) Tappa principale. Verifica che i sistemi usati siano marchiati CE e documentati.
2 agosto 2027 Sistemi AI ad alto rischio integrati in prodotti regolamentati Marginale per gli studi legali standard.

Il vostro studio è "ad alto rischio"? Quasi certamente no.

Una delle preoccupazioni più diffuse è capire se l'uso di un assistente AI per la redazione di atti rientri tra i sistemi ad alto rischio. La risposta, per la quasi totalità degli studi legali italiani, è negativa.

L'Allegato III dell'AI Act elenca tassativamente i settori ad alto rischio. Per la giustizia, il punto 8 lettera a) considera ad alto rischio i sistemi AI usati da o per conto delle autorità giudiziarie per "ricercare e interpretare fatti e diritto e applicare la legge a un insieme concreto di fatti, o usati in modo simile nella risoluzione alternativa delle controversie".

La distinzione è netta: l'autorità che decide rispetto al professionista che assiste. Un avvocato che usa LeXi per una ricerca giurisprudenziale o per una bozza di memoria non sta esercitando funzioni giudiziarie. Lo strumento è quindi a rischio limitato, con obblighi di trasparenza ma non gli oneri gravosi (FRIA, registrazione, organismo notificato) previsti per i sistemi ad alto rischio.

Le quattro azioni concrete da fare in studio

1. Alfabetizzazione AI documentata (art. 4)

L'art. 4 impone a fornitori e deployer di garantire un livello adeguato di alfabetizzazione AI del personale. Per uno studio legale significa tracciare la formazione ricevuta dai professionisti e collaboratori sull'uso degli strumenti. Non basta dire "usiamo ChatGPT": bisogna poter dimostrare che chi lo usa conosce limiti, rischi e casi di malfunzionamento documentati.

2. Trasparenza verso il cliente

L'art. 50 introduce obblighi di trasparenza per gli output generati dall'AI. Lo studio legale dovrebbe valutare se inserire nelle proprie lettere di incarico o nell'informativa privacy un riferimento all'uso di strumenti AI di supporto. Non è obbligo formale diretto in tutti i casi, ma è coerente con il principio di trasparenza della prestazione professionale.

3. Verifica della catena di fornitura

I sistemi AI usati devono essere stati immessi sul mercato secondo le regole dell'AI Act. Concretamente: privilegiare fornitori che dichiarino esplicitamente conformità, mantengano documentazione tecnica accessibile e abbiano un'identità giuridica chiara.

4. Tracciabilità interna degli output AI

Buona pratica difensiva — non obbligo formale: registrare quali atti sono stati assistiti da AI, in quale fase, e chi ha effettuato la revisione finale. Utile in caso di contestazioni deontologiche o richieste di chiarimento da parte del cliente.

Il rapporto tra AI Act e Legge 132/2025

L'Italia ha approvato la Legge 132/2025 in vigore da ottobre 2025, che integra l'AI Act sul piano nazionale individuando AgID e ACN come autorità competenti e rafforzando i principi di responsabilità umana e antropocentricità.

Le due fonti non sono in conflitto: l'AI Act è il quadro generale UE, la Legge 132/2025 lo declina sul piano italiano e aggiunge specificazioni coerenti. Per uno studio legale italiano la conformità all'una è in larga misura conformità all'altra.

Sanzioni: cosa rischia uno studio non conforme

Le sanzioni dell'AI Act (art. 99) sono pensate per i grandi player ma si applicano in proporzione anche alle PMI. I tetti massimi:

Per uno studio legale standard il rischio di sanzione AI Act diretta è basso. Il rischio reale è deontologico: usare strumenti non conformi senza supervisione può integrare violazione del dovere di diligenza professionale, con conseguenze disciplinari ben più probabili di una sanzione amministrativa europea.

Una checklist rapida

Cinque domande da porsi entro luglio 2026:

Cinque "sì" significano che la struttura per l'AI Act è già in piedi. Cinque "no" significano che c'è lavoro da fare nei prossimi mesi — ma è lavoro proporzionato, non rivoluzione.

LegaleAI è progettato per la conformità

Tracciabilità degli output, sistema anti-allucinazione Guardian, verifica delle fonti integrata. 20 minuti di demo per vedere come funziona sul suo studio.

Richiedi una demo gratuita →