Il Regolamento UE 2024/1689 è in vigore dal 1° agosto 2024 ma diventa pienamente operativo per la maggior parte dei sistemi il 2 agosto 2026. Per gli studi legali italiani non significa rivoluzione: significa cambiare quattro abitudini.
Quando il Parlamento europeo ha approvato il Regolamento UE 2024/1689 — l'AI Act — l'attenzione mediatica si è concentrata sui produttori di modelli generativi: OpenAI, Google, Anthropic, Mistral. Ma il regolamento si applica anche agli utilizzatori professionali dei sistemi AI, e questo include gli studi legali che integrano LeXi, ChatGPT Enterprise, Claude o Gemini nel proprio workflow quotidiano.
Lo studio legale è classificato dal regolamento come deployer (utilizzatore): non sviluppa il sistema, ma lo usa professionalmente. Gli obblighi sono proporzionati a questo ruolo, ma esistono e sono già in vigore.
Riferimento normativo — Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, pubblicato in Gazzetta Ufficiale dell'Unione Europea il 12 luglio 2024, in vigore dal 1° agosto 2024.
L'AI Act prevede un'applicazione progressiva su 36 mesi. Per uno studio legale è sufficiente conoscere le quattro date che producono effetti operativi diretti:
| Data | Cosa diventa applicabile | Impatto su studi legali |
|---|---|---|
| 2 febbraio 2025 | Divieti su pratiche AI vietate (art. 5) + obbligo di alfabetizzazione AI (art. 4) | Già operativo. Lo studio deve garantire formazione documentata sull'uso degli strumenti. |
| 2 agosto 2025 | Regole sui modelli GPAI (general purpose AI) e governance UE | Indiretto. Riguarda i fornitori dei modelli che stiamo usando. |
| 2 agosto 2026 | Applicazione generale: sistemi ad alto rischio (Allegato III), trasparenza (art. 50) | Tappa principale. Verifica che i sistemi usati siano marchiati CE e documentati. |
| 2 agosto 2027 | Sistemi AI ad alto rischio integrati in prodotti regolamentati | Marginale per gli studi legali standard. |
Una delle preoccupazioni più diffuse è capire se l'uso di un assistente AI per la redazione di atti rientri tra i sistemi ad alto rischio. La risposta, per la quasi totalità degli studi legali italiani, è negativa.
L'Allegato III dell'AI Act elenca tassativamente i settori ad alto rischio. Per la giustizia, il punto 8 lettera a) considera ad alto rischio i sistemi AI usati da o per conto delle autorità giudiziarie per "ricercare e interpretare fatti e diritto e applicare la legge a un insieme concreto di fatti, o usati in modo simile nella risoluzione alternativa delle controversie".
La distinzione è netta: l'autorità che decide rispetto al professionista che assiste. Un avvocato che usa LeXi per una ricerca giurisprudenziale o per una bozza di memoria non sta esercitando funzioni giudiziarie. Lo strumento è quindi a rischio limitato, con obblighi di trasparenza ma non gli oneri gravosi (FRIA, registrazione, organismo notificato) previsti per i sistemi ad alto rischio.
L'art. 4 impone a fornitori e deployer di garantire un livello adeguato di alfabetizzazione AI del personale. Per uno studio legale significa tracciare la formazione ricevuta dai professionisti e collaboratori sull'uso degli strumenti. Non basta dire "usiamo ChatGPT": bisogna poter dimostrare che chi lo usa conosce limiti, rischi e casi di malfunzionamento documentati.
L'art. 50 introduce obblighi di trasparenza per gli output generati dall'AI. Lo studio legale dovrebbe valutare se inserire nelle proprie lettere di incarico o nell'informativa privacy un riferimento all'uso di strumenti AI di supporto. Non è obbligo formale diretto in tutti i casi, ma è coerente con il principio di trasparenza della prestazione professionale.
I sistemi AI usati devono essere stati immessi sul mercato secondo le regole dell'AI Act. Concretamente: privilegiare fornitori che dichiarino esplicitamente conformità, mantengano documentazione tecnica accessibile e abbiano un'identità giuridica chiara.
Buona pratica difensiva — non obbligo formale: registrare quali atti sono stati assistiti da AI, in quale fase, e chi ha effettuato la revisione finale. Utile in caso di contestazioni deontologiche o richieste di chiarimento da parte del cliente.
L'Italia ha approvato la Legge 132/2025 in vigore da ottobre 2025, che integra l'AI Act sul piano nazionale individuando AgID e ACN come autorità competenti e rafforzando i principi di responsabilità umana e antropocentricità.
Le due fonti non sono in conflitto: l'AI Act è il quadro generale UE, la Legge 132/2025 lo declina sul piano italiano e aggiunge specificazioni coerenti. Per uno studio legale italiano la conformità all'una è in larga misura conformità all'altra.
Le sanzioni dell'AI Act (art. 99) sono pensate per i grandi player ma si applicano in proporzione anche alle PMI. I tetti massimi:
Per uno studio legale standard il rischio di sanzione AI Act diretta è basso. Il rischio reale è deontologico: usare strumenti non conformi senza supervisione può integrare violazione del dovere di diligenza professionale, con conseguenze disciplinari ben più probabili di una sanzione amministrativa europea.
Cinque domande da porsi entro luglio 2026:
Cinque "sì" significano che la struttura per l'AI Act è già in piedi. Cinque "no" significano che c'è lavoro da fare nei prossimi mesi — ma è lavoro proporzionato, non rivoluzione.
Tracciabilità degli output, sistema anti-allucinazione Guardian, verifica delle fonti integrata. 20 minuti di demo per vedere come funziona sul suo studio.
Richiedi una demo gratuita →