Avvocati, assicurazione professionale e uso dell’Intelligenza Artificiale

Un avvocato depositò nel 2023 un atto giudiziario che citava sei sentenze. Tutte inventate. Non da lui: da ChatGPT, che aveva usato senza verificarne gli output. Il giudice scoprì tutto, le sanzioni arrivarono, la carriera del professionista — trent’anni di esercizio onesto — fu compromessa in pochi giorni. Quello che sembrava un episodio isolato d’oltreoceano è oggi, nel 2026, un rischio concreto e quotidiano per ogni avvocato italiano.

La questione non è se usare l’AI. È come usarla, e con quale consapevolezza delle responsabilità che ne derivano.

Il quadro è cambiato

Il Rapporto Censis-Cassa Forense del 2025 ha rilevato che il 72,3% degli avvocati italiani non utilizza ancora strumenti di AI nella propria attività. Eppure, il trend si inverte: tra chi li adotta, il 19,9% lo fa per la ricerca giurisprudenziale, una quota crescente per la redazione di atti e l’analisi predittiva dei contenziosi. Il vero cambio di paradigma, però, non è tecnologico: è giuridico.

Mentre gli strumenti di AI sono entrati negli studi legali, legislatore e giurisprudenza si sono mossi a velocità sorprendente per definire regole e responsabilità. La direzione è chiara: l’AI è uno strumento dell’avvocato, non un sostituto. Ogni output resta sotto la responsabilità esclusiva del professionista che lo utilizza — con implicazioni dirette sulla gestione del rischio e sull’assicurazione obbligatoria.

La giurisprudenza italiana traccia la linea

Il sistema di responsabilità professionale resta fondato sull’art. 1176 del Codice civile: diligenza qualificata, competenza tecnica, obbligo di informazione verso il cliente. Quello che cambia con l’AI è la tipologia degli errori possibili. I sistemi di Intelligenza Artificiale generativa sono soggetti alle “allucinazioni”: producono output apparentemente coerenti ma contenenti informazioni false. Sentenze mai emesse, norme mai esistite, dottrina mai scritta.

Il rischio non è più teorico. Con la sentenza n. 2120 del 16 settembre 2025, il Tribunale di Torino (sezione Lavoro) ha condannato ai sensi dell’art. 96 c.p.c. — “lite temeraria” — la parte che aveva depositato un ricorso redatto con l’AI senza filtro critico: un atto costituito da “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti”. La sentenza n. 338 del 20 febbraio 2026 del Tribunale di Siracusa ha fatto un passo ulteriore: ha qualificato come colpa grave l’uso acritico dell’AI senza verifica delle fonti primarie.

La Cassazione penale, sezione III, con la sentenza n. 34481 del 2025, aveva già tracciato il perimetro concettuale: l’uso dell’AI aumenta il rischio che il professionista “abdichi al proprio ineliminabile momento valutativo”. Non una condanna della tecnologia, ma un monito preciso: l’AI non sostituisce il giudizio del giurista.

Colpa grave e polizza: il nodo centrale

La colpa lieve è l’errore che può commettere anche il professionista diligente. La colpa grave è la negligenza marcata, il comportamento che si discosta in modo evidente dagli standard attesi. La giurisprudenza ha già tracciato la linea: usare l’AI senza verificarne gli output configura colpa grave. Non perché usare l’AI sia sbagliato, ma perché è ormai un fatto notorio — conosciuto da qualsiasi professionista ragionevolmente aggiornato — che questi sistemi producono errori. Ignorarlo non è ingenuità: è negligenza grave.

Chi usa l’AI responsabilmente — con verifica sistematica degli output, consultazione delle fonti primarie, supervisione critica — opera nel perimetro della colpa lieve, tipicamente coperta dalla polizza RC. Chi delega all’AI senza controllo si espone al territorio della colpa grave, con conseguenze rilevanti.

L’art. 12 della Legge n. 247/2012 e il Decreto del Ministero della Giustizia del 22 settembre 2016 definiscono le condizioni minime della polizza obbligatoria: copertura di tutti i danni patrimoniali e non patrimoniali, inclusi i fatti colposi dei collaboratori, retroattività illimitata e ultrattività minima di dieci anni. La polizza standard copre anche la colpa grave — ma non tutte le polizze includono questa garanzia con la stessa ampiezza. Alcune prevedono massimali ridotti o clausole interpretabili in modo restrittivo in sede di liquidazione. Il mercato assicurativo si sta già adattando: alcune compagnie hanno inserito nei questionari pre-assuntivi domande sull’uso di strumenti AI. Non è escluso che emergano presto clausole specifiche collegate all’adozione di policy interne. Uno studio con procedure strutturate di controllo sugli output AI rappresenta un rischio inferiore — e il rischio si traduce in premio assicurativo.

I nuovi obblighi normativi

Due livelli di obblighi che ogni avvocato deve conoscere.

Il primo è europeo: il Regolamento (UE) 2024/1689 (AI Act), pubblicato in Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024, è il primo atto normativo globale sull’Intelligenza Artificiale. Per le professioni giuridiche le implicazioni più rilevanti riguardano i sistemi classificati ad “alto rischio”: l’AI impiegata nell’ambito dell’amministrazione della giustizia rientra in questa categoria e richiede valutazioni di conformità, supervisione umana obbligatoria e documentazione tecnica. Il regime ordinario sarà pienamente applicabile dal 2 agosto 2026; le disposizioni sui sistemi ad alto rischio dal 2 agosto 2027.

Il secondo è nazionale: la Legge 23 settembre 2025, n. 132, all’art. 13, ha introdotto l’obbligo per i professionisti di rilasciare al cliente un’informativa sull’uso dei sistemi di Intelligenza Artificiale. L’obbligo è operativo dal 10 ottobre 2025. Il Consiglio Nazionale Forense ha predisposto uno schema di informativa, disponibile anche sul sito dell’Ordine degli Avvocati di Milano.

Non si tratta di un mero adempimento burocratico: è la formalizzazione del dovere deontologico di informazione verso il cliente. L’omessa informativa è un illecito disciplinare e, in caso di danno, aggrava la posizione del professionista in sede di responsabilità civile.

Il dovere di competenza tecnologica

C’è un elemento che sfugge spesso al dibattito, destinato però a diventare centrale: il dovere di competenza include oggi la competenza tecnologica.

L’art. 14 del Codice Deontologico Forense impone di “mantenere e sviluppare le competenze professionali necessarie allo svolgimento dell’incarico”. Lo stesso AI Act richiede, per chi opera con sistemi di AI, conoscenza tecnica adeguata e formazione continua — requisito che si estende agli avvocati. La logica è stringente: non conoscere i limiti dell’AI è oggi paragonabile a non sapere che una norma è stata abrogata. Non è una giustificazione: è un aggravante.

Un protocollo minimo per lo studio

Alcune azioni sono urgenti e non differibili.

Verificare la polizza. Controllare che la RC professionale copra espressamente la colpa grave senza esclusioni legate all’uso di strumenti tecnologici. Il mercato offre già prodotti specifici.

Adottare una policy interna sull’AI. Ogni studio dovrebbe definire per iscritto quali strumenti sono autorizzati, per quali attività e con quali procedure di verifica. In caso di sinistro, questa policy dimostra la diligenza del professionista.

Rispettare l’obbligo di informativa al cliente. Dal 10 ottobre 2025 è un obbligo di legge. Lo schema del CNF è disponibile: adottarlo richiede pochi minuti. Non farlo è un illecito disciplinare.

Formarsi sull’AI. Non per diventare tecnici, ma per conoscere i limiti degli strumenti usati: riconoscere un’allucinazione AI è oggi una competenza professionale.

Conclusione

L’Intelligenza Artificiale riduce i tempi, abbassa i costi, amplifica le capacità di ricerca e analisi. Ma non cambia la sostanza della responsabilità professionale: cambia le modalità con cui quella responsabilità può essere violata.

Il professionista diligente del 2026 non è quello che evita l’AI per paura di sbagliare. È quello che la usa con consapevolezza: conosce i suoi limiti, verifica i suoi output, informa il cliente, aggiorna la propria polizza e mantiene sempre quel “momento valutativo ineliminabile” di cui parla la Cassazione.

L’AI è uno strumento potente. Usato male, può fare danni seri. Usato bene, amplifica la qualità della prestazione. La differenza tra le due modalità si chiama competenza, si chiama diligenza qualificata, si chiama responsabilità professionale. Esattamente ciò che un avvocato è chiamato a incarnare, da sempre.

Avvocati, assicurazione professionale e uso dell’Intelligenza Artificiale

di Mario Alberto Catarozzo

Un avvocato depositò nel 2023 un atto giudiziario che citava sei sentenze. Tutte inventate. Non da lui: da ChatGPT, che aveva usato senza verificarne gli output. Il giudice scoprì tutto, le sanzioni arrivarono, la carriera del professionista — trent’anni di esercizio onesto — fu compromessa in pochi giorni. Quello che sembrava un episodio isolato d’oltreoceano è oggi, nel 2026, un rischio concreto e quotidiano per ogni avvocato italiano.

La questione non è se usare l’AI. È come usarla, e con quale consapevolezza delle responsabilità che ne derivano.

Il quadro è cambiato

Il Rapporto Censis-Cassa Forense del 2025 ha rilevato che il 72,3% degli avvocati italiani non utilizza ancora strumenti di AI nella propria attività. Eppure, il trend si inverte: tra chi li adotta, il 19,9% lo fa per la ricerca giurisprudenziale, una quota crescente per la redazione di atti e l’analisi predittiva dei contenziosi. Il vero cambio di paradigma, però, non è tecnologico: è giuridico.

Mentre gli strumenti di AI sono entrati negli studi legali, legislatore e giurisprudenza si sono mossi a velocità sorprendente per definire regole e responsabilità. La direzione è chiara: l’AI è uno strumento dell’avvocato, non un sostituto. Ogni output resta sotto la responsabilità esclusiva del professionista che lo utilizza — con implicazioni dirette sulla gestione del rischio e sull’assicurazione obbligatoria.

La giurisprudenza italiana traccia la linea

Il sistema di responsabilità professionale resta fondato sull’art. 1176 del Codice civile: diligenza qualificata, competenza tecnica, obbligo di informazione verso il cliente. Quello che cambia con l’AI è la tipologia degli errori possibili. I sistemi di Intelligenza Artificiale generativa sono soggetti alle “allucinazioni”: producono output apparentemente coerenti ma contenenti informazioni false. Sentenze mai emesse, norme mai esistite, dottrina mai scritta.

Il rischio non è più teorico. Con la sentenza n. 2120 del 16 settembre 2025, il Tribunale di Torino (sezione Lavoro) ha condannato ai sensi dell’art. 96 c.p.c. — “lite temeraria” — la parte che aveva depositato un ricorso redatto con l’AI senza filtro critico: un atto costituito da “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti”. La sentenza n. 338 del 20 febbraio 2026 del Tribunale di Siracusa ha fatto un passo ulteriore: ha qualificato come colpa grave l’uso acritico dell’AI senza verifica delle fonti primarie.

La Cassazione penale, sezione III, con la sentenza n. 34481 del 2025, aveva già tracciato il perimetro concettuale: l’uso dell’AI aumenta il rischio che il professionista “abdichi al proprio ineliminabile momento valutativo”. Non una condanna della tecnologia, ma un monito preciso: l’AI non sostituisce il giudizio del giurista.

Colpa grave e polizza: il nodo centrale

La colpa lieve è l’errore che può commettere anche il professionista diligente. La colpa grave è la negligenza marcata, il comportamento che si discosta in modo evidente dagli standard attesi. La giurisprudenza ha già tracciato la linea: usare l’AI senza verificarne gli output configura colpa grave. Non perché usare l’AI sia sbagliato, ma perché è ormai un fatto notorio — conosciuto da qualsiasi professionista ragionevolmente aggiornato — che questi sistemi producono errori. Ignorarlo non è ingenuità: è negligenza grave.

Chi usa l’AI responsabilmente — con verifica sistematica degli output, consultazione delle fonti primarie, supervisione critica — opera nel perimetro della colpa lieve, tipicamente coperta dalla polizza RC. Chi delega all’AI senza controllo si espone al territorio della colpa grave, con conseguenze rilevanti.

L’art. 12 della Legge n. 247/2012 e il Decreto del Ministero della Giustizia del 22 settembre 2016 definiscono le condizioni minime della polizza obbligatoria: copertura di tutti i danni patrimoniali e non patrimoniali, inclusi i fatti colposi dei collaboratori, retroattività illimitata e ultrattività minima di dieci anni. La polizza standard copre anche la colpa grave — ma non tutte le polizze includono questa garanzia con la stessa ampiezza. Alcune prevedono massimali ridotti o clausole interpretabili in modo restrittivo in sede di liquidazione. Il mercato assicurativo si sta già adattando: alcune compagnie hanno inserito nei questionari pre-assuntivi domande sull’uso di strumenti AI. Non è escluso che emergano presto clausole specifiche collegate all’adozione di policy interne. Uno studio con procedure strutturate di controllo sugli output AI rappresenta un rischio inferiore — e il rischio si traduce in premio assicurativo.

I nuovi obblighi normativi

Due livelli di obblighi che ogni avvocato deve conoscere.

Il primo è europeo: il Regolamento (UE) 2024/1689 (AI Act), pubblicato in Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024, è il primo atto normativo globale sull’Intelligenza Artificiale. Per le professioni giuridiche le implicazioni più rilevanti riguardano i sistemi classificati ad “alto rischio”: l’AI impiegata nell’ambito dell’amministrazione della giustizia rientra in questa categoria e richiede valutazioni di conformità, supervisione umana obbligatoria e documentazione tecnica. Il regime ordinario sarà pienamente applicabile dal 2 agosto 2026; le disposizioni sui sistemi ad alto rischio dal 2 agosto 2027.

Il secondo è nazionale: la Legge 23 settembre 2025, n. 132, all’art. 13, ha introdotto l’obbligo per i professionisti di rilasciare al cliente un’informativa sull’uso dei sistemi di Intelligenza Artificiale. L’obbligo è operativo dal 10 ottobre 2025. Il Consiglio Nazionale Forense ha predisposto uno schema di informativa, disponibile anche sul sito dell’Ordine degli Avvocati di Milano.

Non si tratta di un mero adempimento burocratico: è la formalizzazione del dovere deontologico di informazione verso il cliente. L’omessa informativa è un illecito disciplinare e, in caso di danno, aggrava la posizione del professionista in sede di responsabilità civile.

Il dovere di competenza tecnologica

C’è un elemento che sfugge spesso al dibattito, destinato però a diventare centrale: il dovere di competenza include oggi la competenza tecnologica.

L’art. 14 del Codice Deontologico Forense impone di “mantenere e sviluppare le competenze professionali necessarie allo svolgimento dell’incarico”. Lo stesso AI Act richiede, per chi opera con sistemi di AI, conoscenza tecnica adeguata e formazione continua — requisito che si estende agli avvocati. La logica è stringente: non conoscere i limiti dell’AI è oggi paragonabile a non sapere che una norma è stata abrogata. Non è una giustificazione: è un aggravante

Un protocollo minimo per lo studio

Alcune azioni sono urgenti e non differibili.

Verificare la polizza. Controllare che la RC professionale copra espressamente la colpa grave senza esclusioni legate all’uso di strumenti tecnologici. Il mercato offre già prodotti specifici.

Adottare una policy interna sull’AI. Ogni studio dovrebbe definire per iscritto quali strumenti sono autorizzati, per quali attività e con quali procedure di verifica. In caso di sinistro, questa policy dimostra la diligenza del professionista.

Rispettare l’obbligo di informativa al cliente. Dal 10 ottobre 2025 è un obbligo di legge. Lo schema del CNF è disponibile: adottarlo richiede pochi minuti. Non farlo è un illecito disciplinare.

Formarsi sull’AI. Non per diventare tecnici, ma per conoscere i limiti degli strumenti usati: riconoscere un’allucinazione AI è oggi una competenza professionale.

Conclusione

L’Intelligenza Artificiale riduce i tempi, abbassa i costi, amplifica le capacità di ricerca e analisi. Ma non cambia la sostanza della responsabilità professionale: cambia le modalità con cui quella responsabilità può essere violata.

Il professionista diligente del 2026 non è quello che evita l’AI per paura di sbagliare. È quello che la usa con consapevolezza: conosce i suoi limiti, verifica i suoi output, informa il cliente, aggiorna la propria polizza e mantiene sempre quel “momento valutativo ineliminabile” di cui parla la Cassazione.

L’AI è uno strumento potente. Usato male, può fare danni seri. Usato bene, amplifica la qualità della prestazione. La differenza tra le due modalità si chiama competenza, si chiama diligenza qualificata, si chiama responsabilità professionale. Esattamente ciò che un avvocato è chiamato a incarnare, da sempre.

Potrebbe interessarti anche...

Corsi in evidenza

Aggiornamento per assistere efficacemente imprese, debitori e creditori nella gestione della crisi

Strumenti per affrontare le principali sfide del giurista d’impresa

Mondo professione

Torna in alto