Home Blog Chi siamo Contatti Prova gratis
Torna al blog
12 min di lettura

Deontologia e AI: guida al Vademecum OdA Roma 2026

L'intelligenza artificiale è lecita nella professione forense? Sì, ma a precise condizioni. Il Vademecum OdA Roma 2026 e la Legge 132/2025 tracciano il perimetro entro cui ogni avvocato può operare con serenità.

Perché la deontologia è il tema centrale

Prima ancora di chiedersi quale strumento di AI adottare, ogni avvocato dovrebbe porsi una domanda preliminare: posso usarlo? Non in senso tecnico, ma in senso deontologico. La risposta, oggi, è più chiara di quanto si pensi, ma richiede un'analisi attenta delle fonti.

Il Codice Deontologico Forense, aggiornato dal CNF nel 2024, non menziona esplicitamente l'intelligenza artificiale. Tuttavia, i principi generali che lo governano — diligenza (art. 12), competenza (art. 14), riservatezza (art. 13), informazione al cliente (art. 27) — trovano applicazione diretta e immediata nell'uso di strumenti tecnologici. L'assenza di una norma specifica non significa assenza di regole: significa che le regole esistenti devono essere interpretate e applicate al nuovo contesto.

Il problema concreto è che molti avvocati rinunciano all'AI per timore di violare norme che, in realtà, non vietano l'uso della tecnologia, ma ne disciplinano le modalità. Il risultato è un paradosso: chi potrebbe beneficiare maggiormente dell'AI — lo studio piccolo, l'avvocato singolo, il professionista oberato di lavoro — è anche chi ne resta più lontano, per prudenza eccessiva o disinformazione.

È in questo contesto che il Vademecum dell'Ordine degli Avvocati di Roma e la Legge 132/2025 assumono un'importanza fondamentale: non perché creano nuovi vincoli, ma perché chiariscono quelli esistenti, rendendo finalmente praticabile ciò che prima era avvolto nell'incertezza.

I 5 principi del Vademecum OdA Roma 2026

Il Vademecum, pubblicato nel febbraio 2026 dall'Ordine degli Avvocati di Roma, è il primo documento ufficiale di un ordine territoriale italiano che affronta sistematicamente il rapporto tra professione forense e intelligenza artificiale. Non ha forza di legge, ma ha un peso interpretativo significativo: indica la direzione in cui si muoverà la regolamentazione deontologica nei prossimi anni.

I cinque principi cardine sono:

  1. Responsabilità personale e indelegabile — L'avvocato è e resta l'unico soggetto responsabile di ogni atto, parere, memoria o documento prodotto, indipendentemente dal fatto che sia stato assistito da uno strumento di AI. Questo principio ha una conseguenza pratica immediata: l'avvocato non può invocare l'errore dell'AI come esimente. Se un riferimento normativo prodotto dal sistema è errato e l'avvocato lo utilizza senza verificarlo, la responsabilità disciplinare e civile ricade interamente sul professionista. La responsabilità non è delegabile alla macchina
  2. Trasparenza verso il cliente — Il cliente ha diritto di sapere se l'AI è stata utilizzata nella preparazione del proprio fascicolo. Il Vademecum non impone una formula specifica, ma richiede che l'informazione sia fornita in modo chiaro e comprensibile. Non è necessario indicare quale specifico strumento è stato utilizzato, ma l'uso della tecnologia AI deve essere dichiarato. Questa trasparenza, lungi dall'essere un ostacolo, può diventare un elemento di fiducia: il cliente che sa che il proprio avvocato utilizza strumenti avanzati per aumentare la qualità del lavoro è un cliente più sicuro, non meno
  3. Riservatezza e protezione dei dati — I dati del cliente inseriti in strumenti di AI devono essere protetti con la stessa cura riservata ai fascicoli cartacei e digitali. Il Vademecum è esplicito su un punto: l'avvocato deve verificare che lo strumento utilizzato non retenga i dati per finalità proprie, come l'addestramento del modello. Questo requisito esclude di fatto l'uso di chatbot generici gratuiti per il trattamento di dati sensibili dei clienti
  4. Verifica delle fonti e dei riferimenti — Ogni riferimento normativo, giurisprudenziale o dottrinale prodotto dall'AI deve essere verificato su fonti ufficiali e certificate prima dell'utilizzo. Il fenomeno delle cosiddette "allucinazioni" — citazioni inesistenti generate dai modelli linguistici — è noto e documentato. Il Vademecum non vieta l'uso di strumenti che possano generare errori (tutti possono, inclusi i colleghi umani), ma impone il dovere di verifica come condizione imprescindibile per l'uso lecito
  5. Competenza nell'uso dello strumento — L'avvocato deve comprendere i limiti e le potenzialità dello strumento AI che utilizza. Non è richiesta una competenza tecnica informatica, ma una consapevolezza funzionale: sapere cosa lo strumento può e non può fare, in quali casi è affidabile e in quali richiede maggiore cautela. Questo principio si collega all'obbligo di aggiornamento professionale e alla formazione continua

Questi cinque principi non sono restrizioni. Sono condizioni abilitanti: definiscono il perimetro entro cui l'avvocato può adottare l'AI con piena legittimità deontologica.

Legge 132/2025: gli obblighi di trasparenza

Se il Vademecum OdA Roma rappresenta il quadro deontologico, la Legge 132/2025 introduce obblighi giuridici cogenti per tutti i professionisti — non solo gli avvocati — che utilizzano l'intelligenza artificiale generativa nella produzione di documenti destinati a terzi.

Il professionista che si avvale di sistemi di intelligenza artificiale generativa nella predisposizione di atti, pareri o documenti destinati a clienti o a terzi è tenuto a darne informazione nelle forme e nei modi previsti dal proprio ordinamento professionale. — Art. 4, comma 1, Legge 132/2025

La norma è volutamente ampia. Non specifica quale tipo di informazione debba essere fornita, demandando la disciplina di dettaglio agli ordini professionali. Per gli avvocati, il combinato disposto tra la Legge 132/2025 e il Vademecum OdA Roma crea un quadro sufficientemente chiaro: l'obbligo di trasparenza esiste, e la sua violazione può avere conseguenze sia disciplinari che civilistiche.

L'art. 4, comma 2, della stessa legge aggiunge un elemento cruciale: il professionista resta personalmente responsabile del contenuto dei documenti prodotti con l'ausilio dell'AI, anche qualora l'errore sia imputabile al funzionamento del sistema. Non esiste, in altre parole, una responsabilità "della macchina" che possa esonerare il professionista.

L'art. 5 introduce infine obblighi specifici in materia di trattamento dei dati: i sistemi AI utilizzati dai professionisti devono garantire la conformità al GDPR, con particolare attenzione al principio di minimizzazione e al divieto di utilizzo dei dati per finalità diverse da quelle per cui sono stati conferiti.

Per l'avvocato, la Legge 132/2025 ha un effetto pratico importante: trasforma la scelta dello strumento AI da una decisione puramente tecnologica a una decisione di compliance. Non è sufficiente che lo strumento funzioni bene; deve anche garantire la conformità normativa.

Checklist: 8 domande prima di scegliere uno strumento AI

Alla luce del Vademecum OdA Roma e della Legge 132/2025, ecco le otto domande che ogni avvocato dovrebbe porsi prima di adottare uno strumento di intelligenza artificiale nel proprio studio:

Questa checklist non è esaustiva, ma copre i punti essenziali. L'avvocato che può rispondere affermativamente a tutte e otto le domande ha ragionevoli garanzie di conformità deontologica e normativa.

Come LegaleAI rispetta ogni principio

LegaleAI è stato progettato partendo dai vincoli, non aggiungendoli a posteriori. Ogni funzionalità è stata sviluppata tenendo presente il quadro deontologico italiano e la Legge 132/2025.

Responsabilità: avvisi integrati

Ogni output generato da LegaleAI include un avviso automatico che ricorda all'avvocato la necessità di verificare il contenuto prima dell'utilizzo. Non è possibile disattivare questo avviso. L'avvocato resta sempre consapevole che sta utilizzando uno strumento di assistenza, non un sostituto del proprio giudizio professionale.

Trasparenza: log esportabili

Ogni sessione di lavoro viene registrata in un log che l'avvocato può esportare in formato PDF. Questo consente di documentare l'uso dell'AI nei confronti del cliente, dell'ordine professionale o del giudice, se necessario. La trasparenza non è un onere: è una protezione per il professionista.

Riservatezza: dati non trattenuti

I dati inseriti in LegaleAI non vengono utilizzati per addestrare il modello. I testi dei contratti, le informazioni sui casi, i dati dei clienti non vengono conservati oltre la durata della sessione, salvo espressa richiesta dell'utente per la funzione di archivio personale. L'infrastruttura è conforme al GDPR e i dati non lasciano lo Spazio Economico Europeo.

Verifica: riferimenti controllati

Ogni riferimento normativo prodotto da LegaleAI include l'indicazione dell'articolo, del comma e della legge di riferimento, facilitando la verifica su fonti ufficiali. Il sistema segnala esplicitamente quando un riferimento potrebbe non essere aggiornato o quando la risposta si basa su un'interpretazione non univoca.

Competenza: formazione integrata

LegaleAI include una sezione di orientamento che spiega all'avvocato come funziona il sistema, quali sono i suoi limiti e come utilizzarlo al meglio. Non è richiesta alcuna competenza tecnica: l'interfaccia è progettata per funzionare come una conversazione naturale in italiano.

Per un approfondimento su come l'AI sta trasformando la professione forense italiana nel rispetto della deontologia, consigliamo la lettura del nostro articolo Avvocatura e AI: convivere e trarne il meglio.


Conclusione: la deontologia come vantaggio competitivo

La deontologia forense non è un ostacolo all'innovazione. È il suo prerequisito. L'avvocato che adotta l'AI nel rispetto del Vademecum OdA Roma e della Legge 132/2025 non sta semplicemente evitando sanzioni: sta costruendo un vantaggio competitivo sostenibile.

Il cliente del 2026 vuole un avvocato efficiente, trasparente e tecnologicamente consapevole. Ma vuole anche un avvocato di cui fidarsi. La conformità deontologica è ciò che tiene insieme questi due bisogni: permette di innovare senza compromettere la fiducia che è il fondamento della relazione professionale.

Il quadro normativo è chiaro. Gli strumenti esistono. Le regole del gioco sono definite. La domanda non è più se sia lecito usare l'AI nella professione forense. La domanda è: perché non lo sta già facendo?

Provi LegaleAI. 14 giorni gratis.

Conforme al Vademecum OdA Roma 2026 e alla Legge 132/2025. Dati protetti, log esportabili, avvisi integrati. Da 20 euro al mese.

Inizia la prova gratuita