Legge n. 132/2025: gestire l’IA come leva di fiducia e competitività dello studio
di Stefano DovierLa Legge n. 132 del 2025 rappresenta una tappa fondamentale nel percorso di trasformazione digitale degli studi professionali italiani.
Con la sua adozione, l’intelligenza artificiale (IA) entra ufficialmente nel linguaggio giuridico e operativo della professione, non più come curiosità tecnologica o strumento sperimentale, ma come componente regolata di un ecosistema normativo che mira a bilanciare innovazione, tutela dei diritti e responsabilità professionale.
Per noi commercialisti, la Legge non introduce soltanto nuove regole: inaugura una stagione di consapevolezza. Gestire l’IA non significa soltanto usarla, ma saperne governare i limiti, i rischi e le potenzialità, traducendo la tecnologia in un elemento concreto di fiducia e competitività.
Chi saprà muoversi in questo nuovo quadro non sarà soltanto conforme alla Legge, ma diventerà un punto di riferimento per trasparenza e qualità del servizio.
L’IA e la nuova fiducia professionale
Prima della Legge n. 132/2025, le modalità di impiego dell’intelligenza artificiale negli studi erano lasciate alla sensibilità del professionista e dei suoi collaboratori.
Le applicazioni pratiche – dalla contabilizzazione automatica dei documenti alla predisposizione di bozze di bilancio o pareri – venivano spesso utilizzate senza un’esplicita comunicazione al cliente. Non esisteva un dovere di informazione, né una cornice di responsabilità definita.
Il risultato era una fiducia “presunta”: il cliente si fidava del professionista, ma ignorava il grado di automazione dei processi.
Con la nuova Legge, questo scenario cambia radicalmente. L’art. 13 stabilisce che l’IA può essere impiegata solo come strumento di supporto, ribadendo che il professionista mantiene la piena responsabilità delle decisioni finali.
Non è un dettaglio, ma la base di un nuovo patto fiduciario: il cliente deve sapere quando e come entra in gioco l’IA, e deve poter contare sul fatto che ogni risultato prodotto dalla tecnologia è stato rivisto, validato e interpretato da una mente umana.
Il principio del controllo umano diventa, così, il perno della relazione professionale. Non si tratta di un adempimento formale, ma di un presidio etico e operativo: significa che ogni elaborazione deve essere supervisionata, che l’IA non può “decidere” in autonomia e che il professionista è sempre in grado di spiegare e giustificare le conclusioni raggiunte.
In altre parole, la fiducia si evolve da sentimento implicito a processo dimostrabile, fondato sulla trasparenza e sulla tracciabilità.
Questa nuova visione impone anche un cambiamento di linguaggio. La comunicazione verso il cliente non può più limitarsi alla rassicurazione generica: deve essere chiara, concreta e comprensibile. L’art. 4 della Legge parla esplicitamente di informazioni accessibili e in linguaggio semplice, ponendo fine all’era delle clausole oscure e delle informative incomprensibili.
La fiducia si costruisce, dunque, anche nella forma del linguaggio.
Dal vantaggio tecnologico alla competitività regolata
L’adozione dell’IA non è più, quindi, solo un vantaggio tecnico, ma un fattore competitivo che si misura sulla qualità della governance.
Gli studi che investono in formazione, procedure e cultura digitale non si limitano a rispettare la norma; creano un modello di lavoro capace di differenziarsi per affidabilità e trasparenza.
In questo senso, la Legge n. 132/2025 e il Regolamento europeo sull’IA si integrano: entrambi richiamano l’importanza della trasparenza, della responsabilità umana e della sicurezza dei dati.
Per noi commercialisti, significa trasformare la compliance in valore aggiunto: non una barriera, ma un marchio di qualità. Dichiarare di usare l’IA “in modo controllato e conforme” è una forma di garanzia che rafforza la reputazione dello studio e diventa un messaggio commerciale potente.
Ma la competitività non si gioca solo sull’immagine. Essa passa anche per la capacità di costruire processi interni efficienti e sicuri. La Legge promuove la formazione continua, invitando gli ordini professionali a organizzare percorsi di aggiornamento sull’uso etico e consapevole dell’IA.
La conoscenza tecnologica, accanto alle competenze fiscali e contabili, diventa un fattore distintivo. Uno studio in grado di interpretare correttamente la tecnologia sarà anche più rapido, più preciso e più affidabile.
Il mandato come strumento di trasparenza e tutela
In questo contesto, il mandato professionale assume una funzione nuova: da contratto burocratico a documento di trasparenza. In esso il commercialista deve illustrare con chiarezza se e come utilizzerà strumenti di IA. Questo non serve solo a tutelare il cliente, ma anche lo studio stesso, perché previene malintesi e responsabilità indirette.
Una possibile formulazione di clausola potrebbe essere la seguente:
«Il Professionista può utilizzare strumenti di intelligenza artificiale per attività di supporto all’analisi e all’elaborazione dei dati. Ogni risultato sarà revisionato ed approvato dal Professionista, che mantiene la piena responsabilità delle decisioni finali. Il Cliente ha diritto di richiedere che specifiche attività siano eseguite senza il ricorso all’IA, con eventuale adeguamento dei tempi e dei costi dell’incarico».
Questa frase, semplice ma precisa, esprime il nuovo equilibrio tra innovazione e fiducia. Introduce l’opt-out, tutela il controllo umano e definisce le responsabilità.
Parallelamente, la Legge impone maggiore attenzione alla gestione dei dati: l’art. 4 sottolinea la necessità di proteggere le informazioni personali con misure tecniche adeguate e di usare l’IA nel rispetto dei principi di minimizzazione e proporzionalità. Anche la relazione con i fornitori di software deve essere regolata con contratti chiari e clausole di trattamento dati conformi al GDPR.
Il mandato, quindi, diventa un vero e proprio strumento di compliance e di comunicazione etica: un biglietto da visita che racconta la qualità dello studio.
Governance interna e tracciabilità delle scelte
L’aspetto più innovativo della Legge è forse la richiesta implicita di tracciabilità. Il professionista non deve solo affermare di aver mantenuto il controllo umano: deve essere in grado di dimostrarlo. Questo comporta un cambio di mentalità nella gestione dello studio.
L’introduzione di un AI Register, un registro interno delle attività in cui l’IA viene utilizzata, consentirebbe di documentare l’intero processo: quali strumenti sono stati impiegati, da chi, con quali finalità e con quale verifica. Tale strumento, ispirato alle pratiche previste per i sistemi ad alto rischio nel diritto europeo, potrebbe diventare una forma di assicurazione reputazionale. In caso di contestazioni o errori, poter mostrare una traccia di controllo è il modo più efficace per dimostrare la diligenza professionale.
Accanto al registro, sarebbe sicuramente utile definire una policy interna sull’IA, un insieme di regole condivise che stabiliscono chi può utilizzare determinati strumenti, in quali casi e con quali livelli di supervisione.
Anche la nomina di un referente per la digitalizzazione o per la governance dell’IA potrebbe aiutare a mantenere la coerenza tra obiettivi e responsabilità.
In questo modo, la tecnologia smette di essere un “mezzo opaco” e diventa parte integrante dell’organizzazione, con procedure chiare e controllabili. La fiducia non è più affidata all’intuizione del cliente, ma sostenuta da un sistema trasparente e verificabile.
La nuova frontiera della competitività e del valore
La Legge n. 132/2025 non parla solo di etica e controllo, ma di opportunità. Chi saprà costruire uno studio conforme, aggiornato e trasparente potrà attrarre clienti più consapevoli e partnership di maggior valore.
La fiducia, in questo scenario, diventa moneta economica: le imprese sceglieranno i consulenti non solo per il prezzo o la rapidità, ma per la solidità del metodo e la garanzia di un uso corretto della tecnologia.
La vera sfida competitiva sarà, quindi, la capacità di coniugare innovazione e umanità. L’IA potrà generare bozze, analizzare dati, suggerire interpretazioni, ma sarà sempre il giudizio del professionista a dare senso e valore a quelle informazioni. Un modello predittivo potrà stimare rischi fiscali, ma solo l’esperienza del commercialista potrà tradurre quei numeri in strategie aziendali.
L’intelligenza artificiale diventa così un’estensione della competenza, non la sua negazione.
La competitività, in definitiva, non è una corsa alla digitalizzazione estrema, ma una ricerca di equilibrio tra efficienza e responsabilità. Gli studi che sapranno adottare un approccio etico e strutturato saranno anche i più solidi nel lungo periodo, perché potranno dimostrare di aver costruito un vantaggio basato sulla fiducia e non sulla mera velocità.
La fiducia come valore economico e civile
La Legge n. 132/2025 non è una Legge solamente tecnica, ma una legge di cultura professionale. Ci ricorda che l’innovazione non può prescindere dall’etica e che il valore del lavoro intellettuale risiede nella capacità di interpretare, non solo di elaborare.
L’intelligenza artificiale non sostituisce il professionista: ne amplifica le possibilità, ma anche la responsabilità.
Ogni studio è chiamato a un salto di maturità: passare dalla semplice adozione di strumenti digitali alla costruzione di un modello di governance fondato su etica, trasparenza e controllo umano. Questo passaggio segna la differenza tra chi subisce la tecnologia e chi la guida.
In un contesto in cui la fiducia è il bene più raro, il commercialista può esserne il custode, garantendo che l’automazione serva la persona e non la sostituisca. Chi saprà farlo con rigore, metodo e visione trasformerà la compliance in un vantaggio competitivo e in un valore civile. Perché, in fondo, l’economia digitale non premia chi corre più veloce, ma chi sa mantenere la rotta: quella della competenza, della trasparenza e dell’umanità.


