Utilizzo dell'Intelligenza artificiale da parte dell'Agenzia delle Entrate: limitazioni
L' enorme diffusione di strumenti di AI (intelligenza artificiale) ha fatto avvertire, come necessaria, una regolamentazione della materia considerati l'impatto sociale e economico di questa tecnologia e i possibili rischi per le persone connessi al suo uso, con conseguente necessità di provvedere alla tutela della privacy delle persone coinvolte (L'attuale impiego dell'intelligenza artificiale nel diritto tributario è al centro di un dibattito tra utilità e rischi. Trattano dell'utilizzo dell'I.A. nel diritto tributario, Rosa Geraci, Intelligenza artificiale e giustizia predittiva in materia tributaria. Algoretica e tutela del contribuente «religioso» Torino, 2024; Donati Filippo; Finocchiaro Giusella; Paolucci Federica; Pollicino Oreste, La disciplina dell'Intelligenza artificiale, riv. on line, 2025).
Il Regolamento europeo 2024/1689 - AI Act fornisce una definizione di intelligenza artificiale, considerata come un sistema “automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.”.
Nonostante dall' AI possano derivare importanti benefici sotto il profilo economico, sociale e ambientale, l'utilizzo di questa tecnologia può comportare gravi rischi e pregiudicare anche i diritti fondamentali, tra cui quello alla riservatezza e alla protezione dei dati personali (Giancarlo Taddei Elmi, Sofia Marchiafava, Sviluppi recenti in tema di Intelligenza Artificiale e diritto: una rassegna di legislazione, giurisprudenza e dottrina, Riv. ital. informatica e diritto, 2024 fascicolo 1).
In particolare l'utilizzo dell'intelligenza artificiale da parte dell'Agenzia delle Entrate solleva, per esempio, importanti preoccupazioni per la privacy dei contribuenti.
L'AI Act richiama le disposizioni del GDPR in materia di processo decisionale esclusivamente automatizzato, inclusa la profilazione, che stabiliscono il diritto a non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati che producono effetti giuridici o che incidono significativamente sulle persone e il diritto di ottenere l'intervento umano (Al riguardo, Intelligenza artificiale e accertamento tributario a cura di: Andrea Poddighe Marco Cramarossa Marco Valenti, CNDCEC 18 novembre 2024).
La deroga al divieto (in base all'art. 22 del GDPR) sussiste nel caso in cui l'interessato fornisca il proprio esplicito consenso, oppure ove vi sia una espressa previsione di legge (Antonio Marinello L'utilizzo dell'intelligenza artificiale da parte del Fisco: limiti e prospettive, anche alla luce dell'Artificial Intelligence Act dell'Unione Europea , Riv. dir. trib., 5 dicembre 2024).
In presenza di tecnologie di AI per assumere questo genere di decisioni potenzialmente molto impattanti per un individuo i rischi aumentano sensibilmente e di conseguenza devono innalzarsi i presidi di sicurezza e la trasparenza.
Il nuovo Regolamento mira a tutelare le persone anche attraverso il principio di intervento e sorveglianza umana , imponendo che i sistemi di AI ad alto rischio siano progettati, sviluppati e usati in modo tale da permettere la supervisione umana, che deve essere maggiormente incisiva in presenza di rischi elevati.
L'Agenzia delle Entrate è in possesso di circa 200 banche dati messe a disposizione dell'Amministrazione finanziaria che possono essere utilizzate per un'attività conoscitiva e per l'elaborazione di algoritmi per la valutazione del rischio fiscale qualora emergano elementi di anomalia (Enrico Marello, Digitalizzazione del sistema tributario, Riv. dir. trib., 2024).
Devono ancora essere normativamente regolamentati i limiti dei poteri istruttori dell'Agenzia delle Entrate, in linea con le norme sulla privacy a tutela del contribuente ; con riferimento ai sistemi di AI che attuano un controllo generalizzato di massa, tale attività deve essere posta in essere nel rispetto del diritto alla privacy del contribuente.
Un' area di rischio è legata al tracking online e alla profilazione. Nell'ambito di tali attività possono essere raccolte dagli uffici finanziari grandi quantità di dati, tra cui informazioni inerenti alla navigazione sul web, alla posizione geografica, al comportamento sui social media.
Tramite strumenti di AI possono essere creati profili dettagliati dei contribuenti per potenziare la lotta all'evasione. Un uso errato della tecnologia in questo contesto potrebbe comportare pregiudizi alla privacy e alla protezione dei dati personali e sarebbe potenzialmente idoneo anche a determinare effetti discriminatori.
In tale quadro assume , quindi, particolare rilevanza l'approvazione nel maggio del 2024 da parte del Consiglio Europeo dell' l'AI Act (Regolamento UE n. 2024/1689) ,ossia il primo regolamento europeo che stabilisce regole armonizzate sull'intelligenza artificiale e che rappresenta un tassello fondamentale della strategia digitale dell'UE.
Ad esempio si prevede, tra l'atro, che nei casi d'uso dell'AI che implicano anche il trattamento di dati personali è imprescindibile per gli operatori dei sistemi di AI – dai fornitori agli utilizzatori – tenere conto delle intersezioni tra AI Act e GDPR e adottare tutti i presidi necessari affinché l'uso di tali tecnologie risulti lecito e sicuro.
Sono numerosi, all'interno dell'AI Act, i riferimenti ai diritti e alle libertà fondamentali della Carta dei Diritti Fondamentali dell'Unione Europea , la cui protezione risulta per il legislatore europeo una condizione essenziale per consentire la diffusione di un'AI affidabile.
Tra i diritti fondamentali enunciati dalla Carta, assumono particolare rilevanza gli articoli 7 e 8 che sanciscono, rispettivamente, il diritto al rispetto della vita privata – e quindi alla riservatezza – e alla protezione dei dati personali.
L'AI Act, in particolare, richiama i principi di minimizzazione e privacy by design e by default, applicabili dalla fase di pianificazione e progettazione dei sistemi di AI fino a quella di dismissione.
Vengono inoltre indicate alcune misure che i fornitori di sistemi di AI possono utilizzare per garantire la riservatezza, tra cui la cifratura, l'anonimizzazione, e l'uso di tecnologie che consentano di inserire algoritmi nei dati e di addestrare i sistemi di AI senza trasmissione o copia dei dati.
Tali misure devono essere rispettate dall'Agenzia delle entrate, ma anche dagli enti locali dotati di potestà impositiva (in particolare i Comuni), con un ruolo rilevante, al riguardo, del Garante della privacy.
Occorre valutare le implicazioni tra la tecnologia e il rispetto dei dati personali dei contribuenti che possono determinare effetti indesiderati e illeciti (Al riguardo, U. RUFFOLO, Intelligenza artificiale e responsabilità, Milano, Giuffrè, 2018).
Le misure da adottare ai fini della privacy sono simili a quelle che il GDPR indica per proteggere i dati personali, assicurandone la riservatezza, l'integrità e la disponibilità (DM Locatello, Osservazioni sulla costruzione di un regime europeo di responsabilità civile per l'Intelligenza artificiale, Jus civile, 2022).
In base al nuovo Regolamento, i sistemi di AI devono essere sviluppati e utilizzati in modo da consentire un'adeguata tracciabilità e spiegabilità, facendo in modo che le persone siano consapevoli del fatto che stanno comunicando o interagendo con un'AI, informando anche gli utilizzatori delle capacità e dei limiti dei sistemi e gli interessati dei loro diritti.
Importanti cautele possono rinvenirsi nei principi di non esclusività della decisione algoritmica e di conoscibilità dei processi decisionali, già affermati dalla giurisprudenza amministrativa (M. Peruzzi, Intelligenza artificiale e tecniche di tutela, Lavoro e diritto, 2022 - rivisteweb.it).
Vanno altresì rispettai i principi etici, che guidano l'interpretazione delle disposizioni dell'AI Act, quali i principi di intervento e sorveglianza umana, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione, equità, benessere sociale e ambientale e accountability (“Orientamenti etici per un'AI affidabile” elaborati nel 2019 dall'High-Level Expert Group on Artificial Intelligence (AI HLEG) della Commissione Europea).
Una volta individuati dall'Agenzia Entrate i modelli generali di azione, possono essere applicati a tutte le situazioni concrete, al fine della valutazione del rischio di evasione o elusione, da parte di soggetti che si trovino in situazioni analoghe o comparabili (la c.d. “amministrazione algoritmica”).
I modelli di analisi stocastica non sostituiscono l'intervento umano, ma segnalano i contribuenti che presentano elevate probabilità di violazione di norme tributarie, ma poi è necessario l'intervento umano dell'Agenzia delle Entrate.
Ai fini della tutela della privacy i dati personali dei contribuenti vanno pseudonimizzati, cioè sostituiti con codici fittizi, per evitare di associare i dati raccolti ad uno specifico individuo, prima della verifica del rischio fiscale e per selezionare efficacemente le posizioni di contribuenti da sottoporre a istruttoria.
L'utilizzo dell'IA comporterà inevitabilmente un aumento del numero degli accertamenti automatizzati o semi- automatizzato, con la possibilità di esclusione del contraddittorio endoprocedimentale che, nel caso di accertamento fondato in larga misura sulle risultanze dell'I.A., risulterebbe fondato su presunzioni elaborate da algoritmi ed appare utile, se non addirittura necessario, prevedere, anche normativamente, il preventivo contraddittorio anche per non aumentare il volume del contenzioso tributario.
In ogni caso l'Amministrazione finanziaria deve motivare l'atto con riferimento specifico al contribuente oggetto di accertamento, specificando le ragioni per le quali i risultati dell'algoritmo siano ritenuti applicabili ed estensibili al contribuente, non essendo sufficiente le sole risultanze del sistema ( c.d. analisi deterministica).
L'atto impositivo, in mancanza delle ragioni per le quali in relazione al caso concreto si sia pervenuti a determinati risultati, è affetto da nullità.
Allo stato non appare legittimo un accertamento completamente automatizzato per l'attuale mancanza di trasparenza degli algoritmi, che non consentono di verificare i criteri e gli esiti del procedimento automatizzato ed è , quindi, importante l'intervento dell'uomo sul processo decisionale dell'algoritmo ai fini dell'atto impositivo (Al riguardo cfr., Alberto Marcheselli, Intelligenza artificiale e giustizia predittiva: il bivio tra Giustiniano e il leviatano e il pericolo coca cola, Riv. dir. trib. , 2022; A Simoncini, L'algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, BioLaw Journal, 2019).
L'I.A., anche sotto il profilo della giustizia tributaria, orientata alla rilevanza del precedente giurisprudenziale, e alla prevedibilità delle sentenze, avvicina il sistema di civil law, dove vige il primato della legge, a quello di common law la cui fonte primaria è ravvisabile nelle precedenti pronunce giurisdizionali (Ritiene che per il giudice i dati proposti dall'intelligenza artificiale sono un semplice dato di consultazione e di riferimento, anche opinabile, Valeria Matroiacovo, Prevedibilità, predittività, e umanità nel giudicare in materia tributaria, Riv. dir. trib., 2023).
Importanza fondamentale assumono, quindi, i criteri di implementazione della banca dati ai fini della garanzia di imparzialità della risposta dell'I.A. che, comunque, non potrebbe ami essere vincolante per il giudice (Enrico Marello, Il punto su …Popper, “Prodigit” e giustizia predittiva, Riv. dir. trib. 2022).