15 Ottobre 2025

AI Act e Legge n. 132/2025: cosa cambia per i commercialisti

di Diego Barberi
Scarica in PDF

L’Italia si conferma essere uno dei Paesi europei più attenti e proattivi nel campo dell’intelligenza artificiale. Il 10 ottobre 2025 è entrata in vigore la Legge n. 132/2025, rendendo il nostro Paese il primo Stato membro dell’Unione Europea ad adottare una normativa nazionale organica sull’intelligenza artificiale. Questa Legge si affianca al Regolamento europeo “AI Act” (Regolamento (UE) 2024/1689), creando un quadro normativo che aziende e studi professionali devono comprendere e applicare. Il messaggio è cristallino: l’AI è permessa, anzi incoraggiata, ma con regole precise che tutelano il primato del giudizio professionale umano.

Per gli studi professionali, il cambiamento non è più un’opzione da valutare, ma una realtà da gestire. Ma ridurre questa rivoluzione normativa a una mera questione di compliance sarebbe un errore strategico. Si tratta piuttosto di un’opportunità per ripensare la professione, elevando il valore della consulenza e liberando tempo dalle attività ripetitive.

 

Il doppio binario normativo: Europa e Italia procedono insieme

Dal 1° agosto 2024, il Regolamento (UE) 2024/1689 (“AI Act”) è formalmente entrato in vigore, rappresentando la prima normativa organica mondiale sull’intelligenza artificiale. Sebbene non manchino critiche al regolamento, soprattutto per il rischio di oneri eccessivi e per alcune incertezze normative, la finalità dichiarata dell’AI Act è quella di guidare l’innovazione tecnologica entro un quadro etico e di sicurezza giuridica. L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di AI in 4 categorie con obblighi proporzionati. La sua applicazione è graduale: il divieto alle pratiche inaccettabili è già operativo dal 2 febbraio 2025, gli obblighi per i modelli di AI generativa si applicano dal 2 agosto 2025, mentre i requisiti completi per i sistemi ad alto rischio entreranno in vigore il 2 agosto 2026.

L’approccio italiano punta, invece, su specificità settoriali. La Legge n. 132/2025 non duplica l’AI Act, ma lo integra, disciplinando ambiti lasciati alla competenza nazionale: professioni intellettuali, sanità, lavoro, Pubblica amministrazione e Giustizia. L’art. 13, Legge n. 132/2025, è la norma cardine per tutti i professionisti, compresi i commercialisti. Stabilisce che l’utilizzo di sistemi di AI nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto, con prevalenza del lavoro intellettuale oggetto della prestazione.

La filosofia che permea l’intera normativa è quella di una “dimensione antropocentrica” dell’AI. Non è una dichiarazione d’intenti, ma un precetto con dirette conseguenze giuridiche. L’autonomia e il potere decisionale dell’essere umano devono essere sempre preservati, specialmente nei contesti dove le decisioni algoritmiche possono avere un impatto significativo sui diritti delle persone. La governance italiana vede 2 autorità principali: l’Agenzia per la cybersicurezza nazionale (ACN), responsabile della vigilanza, e l’Agenzia per l’Italia digitale (AgID), che promuove l’innovazione e gestisce le certificazioni.

 

La piramide del rischio: comprendere dove si colloca il proprio studio

L’AI Act classifica i sistemi in 4 livelli di rischio. Al vertice, i sistemi a rischio inaccettabile (manipolazione subliminale, social scoring) sono vietati. I sistemi ad alto rischio, come quelli per la valutazione del merito creditizio o per decisioni che influenzano l’accesso a servizi pubblici essenziali, sono soggetti a requisiti stringenti: conformity assessment, documentazione tecnica, logging automatico, supervisione umana. Qui si colloca una questione cruciale: alcuni software avanzati per contabilità e adempimenti fiscali potrebbero rientrare in questa categoria, poiché gli adempimenti fiscali rappresentano un’interazione obbligatoria con l’Agenzia delle Entrate.

I sistemi a rischio limitato (chatbot, assistenti virtuali) richiedono principalmente trasparenza: l’utente deve sapere di interagire con un sistema automatizzato. La maggior parte degli strumenti utilizzati quotidianamente negli studi – software di contabilità con machine learning, OCR per fatture, algoritmi di riconciliazione, strumenti di analisi bilanci – ricade nel rischio minimo, senza obblighi specifici oltre al GDPR. La distinzione cruciale non è tecnologica ma funzionale: il contesto d’uso determina il livello di rischio, non la tecnologia in sé.

 

L’art. 13: il punto di riferimento della normativa per i professionisti

L’art. 13, Legge n. 132/2025, stabilisce un principio non negoziabile: l’AI, nelle professioni intellettuali, è finalizzata al solo esercizio delle attività strumentali e di supporto, con prevalenza del lavoro intellettuale. L’AI può essere utilizzata solo per attività “strumentali” e di “supporto“. Strumentale significa accessorio, preparatorio – mai principale. L’AI può preparare, non decidere; può facilitare, non concludere; può suggerire, non determinare.

Il lavoro intellettuale del professionista deve rimanere “prevalente”. Prevalente non significa semplicemente presente, ma dominante qualitativamente. Quando un cliente paga per una consulenza fiscale, sta pagando per il giudizio, l’esperienza e la competenza del commercialista, non per l’output di un algoritmo. Anche se l’AI automatizza il 90% delle attività operative, quel 10% di giudizio professionale umano deve rappresentare l’elemento fondamentale della prestazione. La responsabilità professionale rimane interamente in capo al professionista, introducendo nuovi doveri di supervisione, verifica e controllo.

Il comma 2 introduce l’obbligo di trasparenza: le informazioni relative ai sistemi di intelligenza artificiale utilizzati devono essere comunicate al cliente con linguaggio chiaro, semplice ed esaustivo. Non basta una clausola generica nella lettera d’incarico. Il cliente deve capire concretamente quali sistemi AI vengono usati, per quali attività, con quale grado di automazione e con quali garanzie di supervisione umana.

Questo nuovo obbligo impone ai commercialisti un salto di qualità fondamentale. Non è più sufficiente “usare” uno strumento software, ma diventa indispensabile comprenderne a fondo il funzionamento, i limiti e l’impatto sul risultato finale della prestazione. Il professionista deve essere in grado di spiegare, ad esempio, quali parti del proprio lavoro sono state assistite dall’IA e quali sono invece il frutto esclusivo del proprio giudizio professionale. Questa capacità di distinguere, documentare e comunicare diventa elemento costitutivo della diligenza professionale.

 

Dalla teoria alla pratica: l’AI negli studi professionali

Nella contabilità ordinaria, i moderni software permettono l’importazione automatica dei dati bancari, la classificazione delle movimentazioni, l’abbinamento fatture-pagamenti. I sistemi di machine learning raggiungono precisioni fino al 90% per operazioni ricorrenti. Ma l’AI può proporre, il professionista deve validare. Un sistema configurato per registrare automaticamente senza supervisione viola il principio di prevalenza del lavoro intellettuale.

Per le fatture elettroniche, i dati vengono letti dall’XML, l’AI categorizza, verifica la coerenza IVA, segnala anomalie. Il risparmio di tempo è sostanziale, ma il controllo finale resta umano. Emerge, qui, un paradosso apparente dell’automazione che merita particolare attenzione. Il tempo risparmiato nella produzione di elaborati deve essere necessariamente reinvestito in un’attività giuridicamente cruciale: la verifica. Se uno studio utilizza un software per classificare automaticamente i costi, non può semplicemente accettare il risultato. Deve implementare procedure di campionamento, audit e validazione, concentrandosi in particolare sulle transazioni anomale o ad alto rischio.

Questo determina un cambiamento fondamentale nella natura del lavoro professionale: il professionista e i suoi collaboratori si trasformano da “produttori” di contabilità a “supervisori e validatori” di un processo automatizzato. Si tratta di una transizione che richiede nuove competenze, non solo tecniche, ma anche di pensiero sistemico e di controllo della qualità.

Nell’elaborazione dei bilanci, l’AI può riclassificare secondo schemi standard, generare bozze della Nota integrativa, calcolare indici, confrontare dati storici. Ma le valutazioni di sostanza restano umane: la stima di fondi svalutazione, la valutazione delle rimanenze, il going concern assessment richiedono giudizio professionale. Per le dichiarazioni fiscali, i software compilano i moduli, calcolano imposte, identificano deduzioni, verificano coerenze. Il confine da non superare è la scelta.

 

Responsabilità professionali: quando l’AI amplifica il rischio

Il professionista risponde sempre e comunque dell’output finale, indipendentemente dal grado di automazione impiegato. L’adozione di sistemi di IA non è un elemento che mitiga il rischio, anzi, può in alcuni casi amplificarlo drammaticamente. Un errore sistemico in un algoritmo può essere replicato su vasta scala e in tempi rapidissimi, potenzialmente danneggiando più clienti contemporaneamente. Questo eleva in modo esponenziale le conseguenze di un singolo malfunzionamento. Un errore nella logica di calcolo di un software fiscale potrebbe generare dichiarazioni errate per centinaia di clienti prima che il problema venga individuato.

Il tradizionale dovere di diligenza professionale si espande in modo significativo. Non si tratta più solo di applicare correttamente le proprie conoscenze tecniche, ma anche di saper scegliere strumenti di IA adeguati e affidabili, comprenderne i limiti intrinseci e implementare un processo robusto e documentato per la verifica dei loro risultati. Affidarsi ciecamente a un output algoritmico senza un adeguato controllo umano rischia di generare situazioni di negligenza professionale.

Sono molteplici gli scenari che possono portare a responsabilità professionali nell’impiego di strumenti di AI. Dalla responsabilità civile per eventuali danni subiti dal cliente a causa di errori commessi durante l’esecuzione dell’incarico, alla responsabilità in ambito amministrativo nei confronti delle autorità fiscali, ad esempio per l’apposizione di visto infedele, o ancora a livello deontologico con conseguenze che possono arrivare fino alla sospensione, e nei casi più gravi anche a responsabilità di tipo penale per false dichiarazioni o concorso in evasione.

I fornitori di software basati su AI sono particolarmente attenti a escludere qualsiasi forma di responsabilità tramite appositi disclaimer, limitandosi a fornire i prodotti “as is”. Di conseguenza, la catena di responsabilità si interrompe sempre all’utilizzatore di quei software, quindi il professionista, che rimane l’unico soggetto chiamato a rispondere degli effetti prodotti dall’utilizzo di tali strumenti.

Alla luce di questi rischi, bisogna fare particolare attenzione anche alla propria polizza di responsabilità civile professionale (RC). Molte polizze tradizionali, infatti, non contemplano esplicitamente tali rischi. Se per l’utilizzo di alcuni strumenti, come la firma elettronica avanzata, è espressamente previsto per Legge la stipula di una copertura assicurativa a tutela del rischio, diventa difficile pensare che una tecnologia decisamente più potente e pervasiva in tutti i processi di studio, come l’Intelligenza artificiale, non debba essere oggetto di specifica copertura.

 

Ridefinire lo standard professionale e il compenso

La crescente disponibilità di strumenti di IA è destinata a innalzare l’asticella dello standard di diligenza professionale. In un futuro prossimo, la mancata adozione di tecnologie di IA consolidate per attività come l’analisi di grandi moli di dati o l’individuazione di anomalie indicative di frodi potrebbe essere considerata una condotta al di sotto dello standard di cura atteso da un professionista diligente. L’AI non sarà più un’opzione, ma uno strumento la cui padronanza sarà parte integrante della competenza professionale richiesta.

La formazione sarà uno degli elementi fondamentali per acquisire le competenze necessarie per gestire questa transizione. Non sarà più solo una scelta del singolo professionista, ma diventa un obbligo. L’art. 24, comma 2, lett. f), Legge n. 132/2025, tratta nello specifico questo tema: i Consigli nazionali degli Ordini dovranno prevedere un monte ore minimo di formazione obbligatoria dedicata all’uso delle tecnologie digitali, AI inclusa. Lo scopo è duplice: garantire un uso consapevole degli strumenti AI da parte dei professionisti e prevenire i rischi dovuti a una scarsa comprensione dei sistemi adottati.

Non si tratta di formazione tecnica fine a sé stessa. I commercialisti dovranno acquisire competenze su funzionamento di base dei sistemi AI e loro limitazioni, principi dell’AI Act e della Legge n. 132/2025, obblighi di supervisione e documentazione, riconoscimento di output errati, gestione dei dati personali con AI, etica professionale.

Lo stesso art. 24 riconosce esplicitamente che l’uso dell’IA comporta nuove responsabilità e rischi per il professionista. Per questo, prevede la possibilità di un “equo compenso” che possa essere modulato per tenere conto di queste nuove sfide. I professionisti non dovrebbero considerare l’IA solo come uno strumento per ridurre i costi. È necessario rivalutare le strutture tariffarie per riflettere le nuove responsabilità di supervisione, gli investimenti in tecnologia e formazione e l’aumentata esposizione al rischio che l’adozione di questi sistemi comporta. La clausola sull’“equo compenso” fornisce una solida base giuridica per questo riposizionamento strategico degli onorari.

 

Best practices: un approccio strutturato alla compliance

Implementare l’AI in modo conforme richiede un approccio sistematico. Primo, l’inventario dei sistemi AI utilizzati: documentare per ciascuno funzionalità, dati trattati, classificazione del rischio, presenza di Data Processing Agreement, misure di supervisione. Secondo, la due diligence sui fornitori: verificare localizzazione dati, conformità GDPR, certificazioni sicurezza, documentazione tecnica, limitazioni note. Preferire fornitori europei o con chiari meccanismi di trasferimento dati conformi.

Terzo, politiche interne chiare e trasparenza verso i clienti. Adottare una AI Policy che definisca strumenti approvati, obblighi di supervisione, procedure di documentazione, formazione obbligatoria. Aggiornare le lettere di incarico specificando quali strumenti AI vengono usati, per quali attività, come sono protetti i dati, chi rimane responsabile. Quarto, implementare procedure di supervisione proporzionate al rischio: revisione completa per attività ad alto impatto, verifica a campione per attività a medio impatto, controlli per eccezione con audit periodici per attività a basso impatto.

L’approccio consigliato è incrementale: iniziare con progetti pilota su casi d’uso a basso rischio, testare accuratezza, documentare esperienze, formare il team progressivamente. L’AI è un amplificatore: amplifica l’efficienza, ma amplifica anche gli errori se non governata.

 

Opportunità oltre la compliance

Ad ogni innovazione tecnologica ci si ripete sempre, quasi come un mantra, che l’automazione delle attività ripetitive libera tempo per attività consulenziali ad alto valore. In questo contesto, però, spesso si cela un paradosso: l’AI, nella professione contabile, libera tempo per compiti a più alto valore, ma solo se si possiede già il senso critico per svolgerli. Se perdiamo la nostra capacità critica e acume professionale, perché ci siamo affidati troppo agli algoritmi, il tempo liberato diventa vuoto. L’AI non livella il campo di gioco: premia chi ha già competenze solide e penalizza chi cerca scorciatoie. Il rischio del “deskilling” – diventare monitor passivi di processi automatizzati, perdendo l’acume professionale e le facoltà critiche – è reale quanto i benefici.

E qui sta il secondo grande paradosso: mentre l’AI si trasforma rapidamente in commodity (tutti gli studi avranno presto accesso agli stessi strumenti, agli stessi prezzi), il vantaggio competitivo tornerà paradossalmente a ciò che l’AI non può replicare. Non la velocità di elaborazione, ma la profondità della relazione con il cliente. Non la conformità tecnica alle regole, ma la capacità di percepire quando qualcosa è formalmente corretto, ma sostanzialmente insensato. Non l’automazione perfetta, ma la saggezza di sapere quando spegnere l’automazione e tornare al giudizio umano. La professione del futuro si giocherà sulla capacità di essere “garanti della sostanza” in un mare di dati processati alla perfezione.

La cornice normativa dell’AI Act e della Legge n. 132/2025, vista in questa prospettiva, non è burocrazia ma architettura esistenziale della professione. Obbligandoci a mantenere la “prevalenza del lavoro intellettuale”, il Legislatore ci protegge dal rischio di deskilling. Imponendoci trasparenza, ci costringe a rimanere consapevoli di cosa facciamo e perché. Richiedendo formazione continua, ci viene richiesto che il nostro acume professionale rimanga allenato. Non è un freno all’innovazione, ma una bussola per navigarla senza perdere l’orientamento. Il commercialista del futuro non sarà quello con l’AI più potente, ma quello che avrà imparato l’arte più difficile: sapere quando accenderla e quando spegnerla, quando delegare e quando decidere, quando automatizzare e quando insistere sul tocco insostituibile del giudizio umano. L’intelligenza artificiale e l’intelligenza umana non sono in competizione – sono in tensione creativa. E da questa tensione nascerà l’eccellenza professionale dei prossimi anni.

AI e LEGGE 132/25: cosa cambia davvero per gli Studi professionali