L’utilizzo crescente di strumenti di Intelligenza Artificiale generativa nella pratica forense sta modificando in profondità le modalità di ricerca, redazione e revisione degli atti giudiziari. Tuttavia, l’efficienza operativa offerta da tali tecnologie si accompagna a un rischio ormai emerso con chiarezza nella prassi giudiziaria: l’affidamento non verificato agli output generati da sistemi automatizzati.
La recente decisione di un giudice federale statunitense, che ha esteso la responsabilità disciplinare anche all’avvocato senior incaricato della supervisione dell’atto contenente citazioni inesistenti prodotte mediante AI, assume rilievo non tanto per il profilo sanzionatorio in sé quanto per il principio organizzativo sottostante. L’adozione dell’Intelligenza Artificiale non riduce gli obblighi professionali di controllo ma impone agli Studi legali l’introduzione di protocolli di verifica più strutturati e documentabili.
Il tema presenta evidenti riflessi anche nell’ordinamento italiano.
Sebbene non esista ancora una disciplina specifica dedicata all’uso dell’AI nella professione forense, il quadro normativo e deontologico vigente contiene già principi idonei a fondare obblighi di controllo, diligenza e supervisione.
Il problema giuridico non riguarda la legittimità dell’impiego dell’Intelligenza Artificiale bensì il perimetro dell’affidamento ragionevole che il professionista può riporre in sistemi notoriamente soggetti a errori, approssimazioni o fenomeni di cosiddetta “allucinazione”. La questione assume particolare rilevanza nella redazione di atti processuali, dove l’inesattezza della fonte citata non incide soltanto sulla qualità tecnica dell’elaborato ma può compromettere il rapporto fiduciario con il giudice e la stessa credibilità professionale del difensore.
Una prima impostazione interpretativa tende a considerare l’AI come un semplice strumento evoluto di supporto, assimilabile ai tradizionali software di ricerca giuridica. In tale lettura, l’errore derivante da un output inesatto resterebbe integralmente imputabile al professionista che abbia omesso le necessarie verifiche. Un diverso orientamento, più attento alla crescente autonomia operativa dei sistemi generativi, evidenzia invece la necessità di elaborare standard professionali nuovi, calibrati sulla specificità del rischio tecnologico. In entrambi i casi, però, il punto di convergenza rimane uno: l’avvocato non può delegare il controllo finale della correttezza giuridica a uno strumento automatizzato.
Per gli Studi legali, il tema assume quindi una dimensione organizzativa prima ancora che individuale. L’introduzione dell’AI nei processi interni richiede policy operative chiare, procedure di revisione multilivello e criteri di tracciabilità delle verifiche effettuate. La supervisione non può più limitarsi a una validazione formale dell’atto predisposto dal collaboratore, ma deve comprendere controlli puntuali sulle fonti, sulla coerenza argomentativa e sull’attendibilità delle citazioni normative e giurisprudenziali.
Sotto questo profilo, l’evoluzione tecnologica produce un effetto spesso sottovalutato: ridefinisce il contenuto concreto dell’obbligo di diligenza professionale. La competenza dell’avvocato non coincide più soltanto con la conoscenza del diritto sostanziale e processuale, ma include la capacità di comprendere limiti, margini di errore e modalità corrette di utilizzo degli strumenti digitali impiegati nell’attività professionale.
Anche il quadro europeo si muove in questa direzione.
L’AI Act dell’Unione europea, pur non disciplinando specificamente l’attività forense, introduce un modello regolatorio fondato sulla gestione del rischio e sulla responsabilizzazione degli operatori.
In parallelo, il Consiglio degli Ordini Forensi Europei ha più volte richiamato la necessità di garantire che l’utilizzo dell’Intelligenza Artificiale rimanga compatibile con i principi di indipendenza, riservatezza e controllo umano dell’attività difensiva.
Il vero punto critico, tuttavia, non sembra essere la presenza di errori tecnologici, fisiologici in qualunque sistema automatizzato, quanto la progressiva deresponsabilizzazione metodologica che tali strumenti possono generare. L’autorevolezza apparente dell’output prodotto dall’AI rischia infatti di ridurre il livello di verifica critica, soprattutto nei contesti professionali caratterizzati da elevata pressione produttiva e tempi ridotti.
Per questa ragione, la questione non può essere affrontata esclusivamente sul piano disciplinare o reputazionale.
Gli Studi legali sono chiamati a sviluppare modelli interni di governance dell’AI che includano formazione specifica, procedure di controllo documentate e criteri di responsabilità chiaramente definiti.
La vicenda statunitense offre quindi un’indicazione destinata probabilmente a consolidarsi anche nei sistemi europei: l’Intelligenza Artificiale può aumentare l’efficienza operativa dello Studio ma non sostituisce il presidio professionale dell’avvocato. Al contrario, quanto più cresce l’automazione del processo redazionale, tanto più si rafforza la necessità di un controllo umano competente, consapevole e verificabile.
