Predittività tributaria: il progetto Prodigit
Il progetto PRO.DI.GI.T., si propone l’obiettivo di offrire un valido supporto ai professionisti del settore, creando una banca dati intelligente sulle sentenze tributarie di merito e di sperimentare sistemi di large language modelling per la creazione di sommari delle sentenze.
l progetto PRO.DI.G.IT, èpromosso dal Consiglio di Presidenza della Giustizia tributaria e dal Ministero dell’Economia e finanziato e finanziato con i fondi PON Governance e Capacità istituzionale 2014-2020.
La funzione predittiva riguarda la probabilità di individuare una soluzione all’esito di una causa anche al fine di deflazionare il contenzioso, ponendo le basi per un diverso rapporto tra contribuente e Amministrazione finanziaria.
L'accertamento tributario
L'attività di accertamento fiscale è quella che, nell'ambito del diritto tributario, si presta in maniera particolare all'utilizzo dell'IA: essa consiste infatti nella determinazione delle imposte dovute e che presuppone l'acquisizione di dati ed informazioni fiscalmente rilevanti, la determinazione dell'ammontare dovuto e successivamente l'eventuale riscossione. La fase della determinazione può essere affidata all'uso di algoritmi automatici, tenendo conto che gli spazi discrezionali dell'Amministrazione finanziaria sono pressoché inesistenti. Dove vi è vincolatezza c'è spazio soltanto per l'applicazione di una regola e per la realizzazione del solo interesse erariale, in una prospettiva in cui l'Amministrazione è obbligata a provvedere nell'unico modo possibile.
L'assenza di discrezionalità nella fase dell'accertamento trova il proprio fondamento nell'art. 23 della Costituzione e nella relativa riserva di legge. In tale contesto è la legge a determinare e comporre gli interessi coinvolti con la conseguenza che l'Amministrazione finanziaria non dovrà far altro che applicare la legge in maniera sequenziale ed automatica, assicurando un'applicazione coerente e costante. L'intelligenza artificiale, quindi, può trovare maggiore applicazione nell'accertamento simulando l'agire umano in modo da normalizzare il relativo ragionamento. Ciò con il vantaggio di poter processare una quantità notevole di dati ed informazioni in tempi brevissimi e senza margini di errore, mediante algoritmi di vario tipo: deterministico, probabilistico, ecc. Sottolinea il Consiglio di Stato nella citata sentenza, “il ricorso all'algoritmo va correttamente inquadrato in termini di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi sulla scorta della legislazione attributiva del potere e delle finalità dalla stessa attribuite all'organo pubblico, titolare del potere”.
INTELLIGENZA ARTIFICIALE E ACCERTAMENTO TRIBUTARIO-
18 NOVEMBRE 2024 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
Commissione di studio CNDCEC “Accertamento e rapporti con
l’amministrazione centrale e locale”
Sommario
1. Intelligenza artificiale e procedimento di accertamento tributario 3
2. Il Garante della Privacy, il Consiglio di Stato e la nuova normativa sull’analisi del
rischio fiscale 6
3. Gli algoritmi alla base dell’intelligenza artificiale 10
4. L’intelligenza artificiale e il procedimento di accertamento: lo stato dell’arte
(Ve.Ra.) 13
5. La legittimità dei provvedimenti amministrativi basati sull’intelligenza artificiale 17
6. Conclusioni: proposta di istituire un Organismo tecnico nazionale di
monitoraggio dell’utilizzo dell’intelligenza artificiale nel procedimento
tributario 19
2 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
1. Intelligenza artificiale e procedimento di accertamento tributario
L’art. 3 del Regolamento europeo 2024/1689 (AI Act) definisce l’intelligenza artificiale (Artificial
intelligence - AI) quale sistema “automatizzato progettato per funzionare con livelli di autonomia
variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti,
deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o
decisioni che possono influenzare ambienti fisici o virtuali”1. Una definizione pedissequamente
mutuata dal legislatore italiano nell’art. 2 della bozza del d.d.l. dell’8 aprile 2024 in tema di “Norme
di principio in materia di intelligenza artificiale”2
.
L’AI Act disciplina questo nuovo “strumento” la cui novità risiede nell’essere un sistema capace di
decidere in modo autonomo e con ciò, quantomeno potenzialmente, di indirizzare se non di
sostituirsi all’essere umano laddove vi siano alternative da percorrere.
L’AI Act, in vigore dal 13 luglio 2024 e pienamente applicabile dal 2 agosto 2026, introduce norme
uniformi per la commercializzazione, l’attivazione e l’utilizzo dei sistemi di intelligenza artificiale
nell’UE. Gli obiettivi principali della disposizione sono la proibizione di certe applicazioni di IA,
l’introduzione di requisiti rigorosi per i sistemi di IA considerati ad alto rischio e l’imposizione di
doveri specifici agli operatori di tali sistemi. Inoltre, esso prevede regole di trasparenza uniformi per
alcuni sistemi di IA e per la distribuzione di modelli di IA destinati a usi generali.
In estrema sintesi, il Regolamento disciplina l’uso dei sistemi di intelligenza artificiale sulla base di un
approccio fondato sul rischio associato al singolo sistema.
A tal fine, il Regolamento distingue tra sistemi vietati, salvo espresse eccezioni (in cui l’IA è strumentale
alla manipolazione cognitiva e al social scoring), sistemi ad alto rischio che sono ammessi se rispettano
1 Condividendo il pensiero di IURILLI C., Il diritto naturale come limite e contenuto dell’intelligenza artificiale. Prime
riflessioni sul nuovo Regolamento Europeo “AI Act”, Pacini Giuridica, 2024, si ritiene che la definizione fornita nel
Regolamento europeo non sia dirimente al fine di individuare l’essenza dell’IA in funzione di una regolazione del diritto
positivo, posto che rimane “… necessario comprendere come, almeno ad oggi, non si possa ancora parlare di soggettività
giuridica dell’IA, mediante un approccio volto a facilitare l’eventuale attribuzione di responsabilità in capo ad un entità
artificiale e non in capo ad uno sviluppatore/produttore bensì, utilizzando le categorie giuridiche esistenti, considerare l’IA
come prodotto, anzi come bene di consumo, come bene dotato di materialità ove l’IA sia contenuta in un bene fisico, come
strumento o servizio nel caso di utilizzo di una piattaforma digitale, come elemento artificiale che diviene biologico ove sia
inserito in un corpo umano e ne diventi parte integrante o come bene immateriale, riconducibile ad un software”
.
2 L’articolo in parola prevede infatti che “Ai fini della presente legge, si intendono per: a) sistema di intelligenza artificiale:
un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità
dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali
previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali; b) dato: qualsiasi
rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di
registrazione sonora, visiva o audiovisiva; c) algoritmo: sequenza finita ed ordinata di operazioni, o istruzioni, progettate per
raggiungere un obiettivo specifico; d) modelli di intelligenza artificiale: modelli che identificano strutture ricorrenti
attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono
essere integrati in una varietà di sistemi o applicazioni”
.
3 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
taluni requisiti e per i quali vi è l’obbligo di condurre una valutazione di impatto sui diritti fondamentali3
e sistemi a basso o minimo rischio che sono soggetti a regole meno stringenti4
.
Pertanto, una volta individuati i rischi collegati a un dato sistema di intelligenza artificiale esso è
vietato oppure ammesso con l’obbligo di rispettare una serie di requisiti che variano a seconda del
livello di rischio sull’uomo.
Difatti, la ratio del Regolamento consiste nell’assicurare un utilizzo dell’intelligenza artificiale
“antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute,
della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione
europea (…), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli
effetti nocivi dei sistemi di IA nell’Unione nonché promuovere l’innovazione”
.
Infine, l’AI Act prevede l’istituzione di un Comitato che comprende rappresentanti di ciascuno Stato
membro al fine di garantire l'effettiva attuazione dello stesso in tutta l'Unione europea5
.
Dalla prospettiva tributaria, i sistemi di intelligenza artificiale si stanno velocemente facendo largo6 in
quanto, tra l’altro, rappresentano uno strumento in grado di porsi come ausilio nei controlli da parte
dell’Amministrazione finanziaria finalizzati alla prevenzione e repressione dell’evasione e dell’abuso
del diritto7, con i limiti (e le limitazioni) tuttavia già oggi riscontrati e quelli che (probabilmente) la
loro sempre maggiore diffusione rivelerà.
Pertanto, tale sistema che, quantomeno potenzialmente, può determinare uno slittamento di potere
decisorio dal “funzionario” all’algoritmo deve essere osservato con un certo interesse per numerosi
motivi.
In primo luogo, il sistema di intelligenza artificiale può rappresentare un passo in avanti verso
l’uguaglianza tributaria tra i contribuenti.
Per essere più precisi, l’uguaglianza dell’imposizione tra coloro che manifestano la medesima
capacità contributiva è elemento essenziale di condivisione del tributo: se il tributo è il “mezzo” di
3 Si tratta di sistemi che consentono la supervisione umana, la trasparenza, la qualità dei dataset di addestramento.
4 Su tali aspetti si veda la Comunicazione Commissione Europea COM (2018) 237 (Artificial Intelligence for Europe), la
Proposta della Commissione Europea COM (2021) n. 206 del 21 aprile 2021,
https://www.europarl.europa.eu/news/it/headlines/society/20230601STO93804/normativa-sull-ia-la-prima-
regolamentazione-sull-intelligenza-artificiale; AIDA Committee Meetings (Commissione speciale sull’intelligenza artificiale;
Commissione Europea – COM (2020) 65 final, Libro Bianco sull’intelligenza artificiale - Un approccio europeo all’eccellenza e
alla fiducia; https://www.europarl.europa.eu/committees/it/aida/home/highlights.
5 https://digital-strategy.ec.europa.eu/it/policies/ai-board.
6 Si veda il rapporto OCSE “Tax Administration 2022 COMPARATIVE INFORMATION ON OECD AND OTHER ADVANCED AND
EMERGING ECONOMIES”
. Più in generale, si veda AlgorithmWatch, Automating Society Report 2020,
https://automatingsociety.algorithmwatch.org/.
7 RAGUCCI G., L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove
generali dell’accertamento algoritmico? in Riv. Tel. Dir. Trib. 2019; AA.VV a cura di DORIGO S., Il ragionamento giuridico
nell’era dell’intelligenza artificiale, 2020; AA.VV., a cura di URICCHIO A., Intelligenza artificiale tra etica e diritto di difesa,
Cacucci, Bari, 2020; CONTRINO A., Digitalizzazione dell’Amministrazione finanziaria e attuazione del rapporto tributario:
questioni aperte e ipotesi di lavoro nella prospettiva dei princìpi generali, Rivista di Diritto Tributario, 2023, II, pag. 105 e ss;
AA.VV. a cura di DEL FEDERICO L. e PAPARELLA F., Diritto tributario digitale, Pacini, Pisa, 2023.
4 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
riparto delle spese pubbliche, esso deve essere corrisposto nella medesima quantità da tutti i
contribuenti che si trovano nella stessa fattispecie concreta.
L’uguaglianza viene attuata nel procedimento, principalmente, attraverso l’imparzialità dell’azione
amministrativa di accertamento che impone di trattare al medesimo modo i contribuenti che si
trovano nella medesima fattispecie.
Se così è, l’intelligenza artificiale può senza dubbio (o quasi) rappresentare uno strumento per
rendere effettiva l’uguaglianza tributaria: individuato un modello di azione relativo a una fattispecie
normativa astratta, lo stesso si può applicare a tutte le fattispecie concrete sia in relazione
all’interpretazione della legge o dei fatti sia in merito alla valutazione dell’abusività di una o più
operazioni economiche.
Immaginare che vi possa essere un Decisore che in relazione all’applicazione di una norma tributaria
tratti nel medesimo modo i contribuenti che si trovano nella medesima fattispecie rappresenta,
quantomeno in teoria, un elemento che favorisce l’uguaglianza dei contribuenti per il tramite
dell’imparzialità dell’azione amministrativa.
In secondo luogo, l’intelligenza artificiale può avere un importante utilizzo nella prevenzione e nella
repressione dell’evasione e dell’elusione: l’immensa mole di dati, sia fattuali che interpretativi (dati
catastali, fatture elettroniche, flussi finanziari, circolari, interpelli, pareri, sentenze delle Corti di
merito e delle Alte Corti …), a disposizione dell’Amministrazione finanziaria può essere gestita più
efficacemente da un sistema di intelligenza artificiale.
Non solo essa ha senza dubbio il potere di processare l’immensità dei dati a disposizione
dell’Amministrazione finanziaria, ma essa, potenzialmente, può individuare nuovi indici di evasione o
di elusione che possono sfuggire all’occhio dell’uomo.
Infine, quantomeno in linea teorica, l’intelligenza artificiale può dare una forte spinta alla certezza dei
rapporti giuridici in quanto essa è in grado di individuare i trend dottrinali, di prassi amministrativa e
giurisprudenziali e di porli quale ausilio al contribuente e, successivamente, all’Agenzia delle Entrate
per una uniforme interpretazione della legge in relazione a una data situazione fattuale.
L’utilizzo del sistema di IA per promuovere l’imparzialità, l’efficacia dell’azione amministrativa
nonché della certezza dei rapporti giuridici, deve però essere bilanciata con i diritti fondamentali
dell’uomo (quali il diritto alla protezione dei dati personali, il diritto all’integrità patrimoniale, il
diritto ad una imposizione coerente con una manifestazione di effettiva capacità contributiva, il
diritto di difesa nell’ambito di un procedimento amministrativo, il diritto a un giusto processo …)
come peraltro confermato dallo stesso AI Act.
Infatti, l’atto di accertamento può ledere le situazioni soggettive di vantaggio dei contribuenti sotto
molteplici aspetti.
A tutta prima, l’atto di accertamento incide sul patrimonio del contribuente anche per effetto del
contestuale provvedimento di irrogazione delle sanzioni amministrative (che ha natura afflittiva).
5 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
In aggiunta, l’efficacia provvisoria dell’atto può incidere “ingiustamente” nella sfera patrimoniale dei
contribuenti in assenza di definitività dell’obbligazione tributaria8. Si pensi, ad esempio alla parziale
esecutività dell’atto (art. 29, d.l. 78/2010), al potere di emissione dei ruoli straordinari (art. 15 e ss.,
d.P.R. 602/1973) e alle misure cautelari che possono essere richieste al giudice prima dell’emissione
dell’atto impositivo (art. 22, d.lgs. 472/1997).
Presidio essenziale del diritto di difesa è l’obbligo di motivazione dell’atto intesa sia come
individuazione delle ragioni giuridiche e dei presupposti di fatto ma anche come specificazione dei
mezzi di prova (art. 7. l. 212/2000): solo una motivazione intellegibile può dare la possibilità al
contribuente di contestare efficacemente l’atto e quindi di orientare la decisione amministrativa o
giurisdizionale verso la giusta imposta.
Per tale motivo, laddove si vogliano utilizzare sistemi di intelligenza artificiale per motivare gli atti
impositivi (oppure di riscossione, cautelari etc …) la motivazione degli stessi deve prevedere il
rispetto delle regole della c.d. legittimità della decisione algoritmica che vedremo di seguito.
2. Il Garante della Privacy, il Consiglio di Stato e la nuova normativa
sull’analisi del rischio fiscale
Prima dell’introduzione dell’AI Act, il nostro paese si è mosso attraverso due direttrici. Da un lato,
l’Amministrazione finanziaria ha iniziato a utilizzare tali strumenti e, dell’altro lato, il Consiglio di
Stato e il Garante della Privacy hanno posto i primi paletti per un loro utilizzo in coerenza con i diritti
fondamentali dell’uomo tutelati nel nostro ordinamento giuridico.
Dal primo punto di vista, con il progetto denominato “A data driven approach to tax evasion risk
analysis in Italy” finanziato dall’Unione Europea nel 2021, l’Agenzia delle Entrate si è proposta di
innovare i processi di valutazione del rischio fiscale dei contribuenti anche mediante l’ausilio
dell’intelligenza artificiale.
Inoltre, nell’Atto di Indirizzo per il conseguimento degli obiettivi di politica-fiscale 2020/2022 è
precisato al punto 13 che “il processo di valorizzazione del notevole patrimonio informativo esistente
si svilupperà predisponendo opportune banche dati che consentiranno il pieno sfruttamento delle
informazioni a disposizione anche mediante il ricorso a tecniche di machine learning e intelligenza
artificiale”9
.
Dalla seconda prospettiva, i sistemi di intelligenza artificiale sono stati oggetto di pareri del Garante
della Privacy e di pronunce dalla giustizia amministrativa.
8 È comunque possibile ottenere una sospensione amministrativa o giudiziale dell’atto impugnato.
9 https://www.mef.gov.it/export/sites/MEF/ministero/oiv/documenti/Atto-di-Indirizzo-per-il-conseguimento-degli-
obiettivi-di-politica-fisca....pdf
Si veda altresì la Relazione del MEF per orientare le azioni di governo volte a ridurre l’evasione fiscale derivante da omessa
fatturazione del 21 dicembre 2021.
6 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
Ad esempio, il parere n. 58 del 14 marzo 2019 del Garante precisa che la posizione di ciascun
contribuente selezionato per la verifica basata sui dati presenti nell’Anagrafe finanziaria deve essere
valutata in modo specifico dal funzionario.
Con la valutazione di impatto del Garante della Privacy del 30 luglio 2022, n. 276 in merito alle novità
previste dall’art. 1, comma 684, della legge 27 dicembre 2019, n. 160, attuato con il d.m. 28 giugno
2022, il parere positivo all’introduzione della disciplina relativa all’analisi dei rischi e dei fenomeni
evasivi/elusivi tramite l’utilizzo dei dati contenuti nell’Archivio dei rapporti finanziari e l’incrocio degli
stessi con le altre banche dati di cui dispone l’Agenzia delle entrate è stato subordinato a misure
specifiche per la protezione dei dati dei contribuenti, per la trasparenza dell’algoritmo e al fine di
limitare l’accesso a determinate informazioni sensibili.
Inoltre, sempre secondo il Garante, l’Agenzia delle Entrate deve adottare processi di verifica della
qualità dei modelli di analisi impiegati, documentando adeguatamente, in rapporti periodici, le
metriche utilizzate, le attività svolte, le eventuali criticità riscontrate e le misure di conseguenza
adottate.
La sentenza del Consiglio di Stato n. 2270/2019, che sarà oggetto di un successivo approfondimento,
ha posto come condizione di legittimità della decisione algoritmica la conoscibilità della regola che
governa il sistema per la piena comprensibilità della decisione.
In questo contesto, la Legge Delega di riforma tributaria (l. 111/2023) fa un esplicito riferimento
all’utilizzo dell’intelligenza artificiale nell’ambito del procedimento tributario di accertamento.
Se, da un lato, l’art. 17 sembra prevedere il potenziamento dell’impiego dell’intelligenza artificiale
nell’ambito della compliance fiscale (“prevenire gli errori dei contribuenti e i conseguenti
accertamenti”
,
“circoscrivere l’attività di controllo nei confronti di soggetti a più alto rischio fiscale” e
“perseguire la riduzione dei fenomeni di evasione e di elusione fiscale, massimizzando i livelli di
adempimento spontaneo dei contribuenti”), l’aver posizionato tali disposizioni nell’ambito dell’art. 17,
che stabilisce i princìpi e criteri direttivi in materia di procedimento accertativo, di adesione e di
adempimento spontaneo, autorizza a immaginare un suo ruolo anche nell’ambito del procedimento di
accertamento di maggiori imposte.
Altrimenti detto, tale collocazione normativa, unita alla Relazione governativa al d.d.l., indica che il
legislatore ha delegato al Governo la possibilità di disciplinare il ruolo dell’intelligenza artificiale
nell’ambito del contrasto dell’evasione e dell’elusione ossia nell’ambito dell’istruttoria amministrativa.
A seguito della Legge Delega, il governo ha approvato uno schema di d.lgs. che è stato sottoposto al
Garante della Privacy.
7 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
Quest’ultimo con il parere dell’11 gennaio 2024 si è espresso in relazione all’utilizzo dell’intelligenza
artificiale nell’ambito del potere di accertamento10. In estrema sintesi, il parere attiene alla parte
della disposizione che consente all’Agenzia delle Entrate di utilizzare in maniera integrata al fine di
prevenire l’elusione e l’evasione le informazioni presenti nelle banche dati di cui essa dispone, in altri
archivi pubblici gestiti da altri enti esclusi tuttavia quelli nella disponibilità dell’autorità giudiziaria
penale o delle forze di polizia.
A tale proposito, secondo il Garante “andrebbero espunte le informazioni “pubblicamente
disponibili” dal novero di quelle suscettibili di utilizzo, da parte dell’Agenzia delle entrate, mediante
interconnessione con altre, in quanto prive dei necessari requisiti di affidabilità e raccolte per finalità
diverse da quelle sottese al trattamento considerato”
.
Successivamente, è entrato in vigore l’art. 2, d.lgs. 13/24 rubricato “Razionalizzazione e riordino delle
disposizioni normative in materia di attività di analisi del rischio”
.
Tale disposizione precisa che per “analisi del rischio” si intende “il processo, composto da una o più
fasi, che, al fine di massimizzare l’efficacia delle attività di prevenzione e contrasto all’evasione
fiscale, alla frode fiscale e all’abuso del diritto in materia tributaria, nonché di quelle volte a stimolare
l’adempimento spontaneo, tramite modelli e tecniche di analisi deterministica 11 ovvero
probabilistica12, nel rispetto della normativa in materia di trattamento di dati personali, utilizza,
anche attraverso la loro interconnessione, le informazioni presenti nelle basi dati
dell’Amministrazione finanziaria, ovvero pubblicamente disponibili, per associare, coerentemente a
uno o più criteri selettivi13, ovvero a uno o più indicatori di rischio desunti o derivati, la probabilità di
accadimento a un determinato rischio fiscale, effettuando, ove possibile, anche una previsione sulle
conseguenze che possono generarsi dal suo determinarsi”
.
Lo scopo dell’analisi del rischio è, pertanto, la riduzione del rischio di violazioni di norme di natura
tributaria o di porre in essere operazioni in contrasto con i principi o con le finalità dell’ordinamento
tributario.
I risultati dell’analisi del rischio servono, dunque, al fine della prevenzione e contrasto all’evasione
fiscale, alla frode fiscale e all’abuso del diritto, nonché quale stimolo dell’adempimento spontaneo.
10 Parere del Garante su uno schema di decreto legislativo recante disposizioni in materia di accertamento tributario e di
concordato preventivo biennale - 11 gennaio 2024 [9978230], https://www.garanteprivacy.it/home/docweb/-/docweb-
display/docweb/9978230.
11 Per analisi deterministica si intende “l’insieme dei modelli e delle tecniche di analisi basati sul raffronto e
sull’elaborazione di dati, riferiti a uno o più contribuenti ovvero a uno o più periodi di imposta, volti a verificare, tramite
criteri selettivi fondati su relazioni non probabilistiche, l’avveramento di un rischio fiscale, in tutto o in parte definibile
prima dell’avvio dell’analisi”
.
12 Per analisi probabilistica si intende “insieme dei modelli e delle tecniche di analisi che, sfruttando soluzioni di intelligenza
artificiale ovvero di statistica inferenziale, consentono di isolare rischi fiscali, anche non noti a priori, che, una volta
individuati, possono essere utilizzati per l’elaborazione di autonomi criteri selettivi, ovvero permettono di attribuire una
determinata probabilità di accadimento a un rischio fiscale noto”
.
13 Per criterio selettivo si intende “identificazione e tipizzazione di una condotta, monosoggettiva o plurisoggettiva, idonea a
concretizzare un rischio fiscale”
.
8 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
Quindi, l’analisi del rischio può essere utilizzata anche per lo svolgimento di controlli preventivi.
Al fine dell’utilizzo di tali strumenti, la normativa prevede l’interconnessione delle banche dati a
disposizione dell’Agenzia delle Entrate con quelle di archivi e registri pubblici per le attività di analisi
del rischio fiscale, per le attività di controllo, per le attività di stimolo dell’adempimento spontaneo e
per quelle di erogazione di servizi ai contribuenti.
La norma rinvia la sua attuazione a un d.m. che verrà emesso dal MEF, sentito il Garante della Privacy
e “considerati i principi di necessità e di proporzionalità”. In particolare tale regolamento dovrà
prevedere specifiche limitazioni e modalità di esercizio dei diritti di cui agli articoli 15, 17, 18, 21 e 22
del predetto regolamento (UE) 2016/679 in modo da assicurare che tale esercizio non possa arrecare
un pregiudizio effettivo e concreto all’obiettivo di interesse pubblico e le misure adeguate a tutela
dei diritti e delle libertà degli interessati.
L’art. 2, d.lgs. 13/24 ha previsto altresì alcune modifiche agli artt. 31 e 32 del d.P.R. 600/1973 nonché
all’art. 52 del d.P.R. 633/1972 in cui si prevede il potere di svolgimento delle attività di analisi del
rischio.
In forza dell’art. 2, c. 9 d.lgs. 13/24 si prevede che l’Agenzia delle Entrate e la Guardia di Finanza
possano, compatibilmente con le vigenti disposizioni in tema di trattamento di dati personali, di
riservatezza o di segretezza, condividere tra loro le informazioni e le risorse informatiche di cui
dispongono anche tramite la costituzione, conformemente ai rispettivi ordinamenti, di unità
integrate di analisi del rischio14
.
Infine, la Relazione del Presidente Pasquale Stanzione sulla attività del Garante della Privacy del 2023
dal titolo “Regolare il futuro. La protezione dei dati per un’innovazione antropocentrica”, precisa, tra
l’altro, che “basare le procedure accertative su informazioni “rastrellate” dal web – come tali in larga
misura inesatte – è, infatti, estremamente rischioso, potendo avere effetti fortemente distorsivi sulla
corretta rappresentazione della capacità fiscale dei contribuenti. Le garanzie di protezione dei dati
rappresentano quindi, anche in quest’ambito, presupposti di efficacia dell’azione di contrasto
dell’evasione fiscale”15
.
14 Rimangono escluse le informazioni soggette alla disciplina di cui al d.lgs. 51/2018 ossia quelle relative (e funzionali) a
procedimenti penali in ogni loro fase e grado, di prevenzione o ad attività di polizia nell’accezione delineata dal citato
decreto legislativo.
15 Si segnala la dichiarazione del vice-ministro dell’Economia e delle Finanze con delega al fisco Maurizio Leo in sede di
audizione con la Commissione parlamentare di vigilanza sull’anagrafe tributaria del 31.01.2024: «L’evasione fiscale è come
un macigno, tipo il terrorismo. Quando abbiamo 80-100 miliardi di evasione capiamo che si deve tutti collaborare, nel
rispetto dei dati personali. Quello che si deve fare, ed è quello su cui stiamo lavorando con Agenzia delle Entrate e Sogei, è il
cosiddetto data scraping, ovvero non fermarci a ragionare solo sui dati relativi all’attività professionale ma vedere pure gli
elementi significativi del tenore di vita: professionisti e imprenditori vanno su internet e sui social e dicono dove sono stati
in vacanza o in quale ristorante». Peraltro, con riferimento al concordato preventivo biennale, l’art. 9 d.lgs. 12 febbraio
2024 n. 13, dispone che la proposta venga elaborata dall’Agenzia delle entrate “anche attraverso processi decisionali
completamente automatizzati di cui all’articolo 22 del regolamento (UE) 2016/679, del Parlamento europeo e del Consiglio,
del 27 aprile 2016 (...)”. Inoltre “ai fini dell’elaborazione della predetta proposta, l’Agenzia delle entrate, oltre ai dati di cui
al comma 1, ne acquisisce ulteriori dalle banche dati nella disponibilità dell’Amministrazione finanziaria e di altri soggetti
pubblici, escluse quelle soggette alla disciplina di cui al decreto legislativo 18 maggio 2018, n. 51”
.
9 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
3. Gli algoritmi alla base dell’intelligenza artificiale16
L’intelligenza artificiale e gli algoritmi sono sempre più indiscussi protagonisti delle nostre vite e delle
nostre scelte, purtroppo spesso in maniera anche del tutto inconsapevole.
In generale, gli algoritmi sono strumenti impalpabili che regolano le attività sui social network e sui
motori di ricerca, le mappe di navigazione stradale, il traffico ai semafori, gli autovelox, la giustizia
predittiva, l’assistenza sanitaria e gran parte del settore economico, dall’andamento dei mercati ai
sistemi di efficientamento delle decisioni in ambito sia commerciale che finanziario.
Gli artefatti tecnologici regolano altresì le evidenze fenomeniche legate agli Nft, alla blockchain, alla
realtà tridimensionale del metaverso e alla realtà aumentata, vale a dire tutte le moderne
espressioni di una società sempre più freneticamente “liquida”
.
Ciò posto, nonostante gli algoritmi e l’intelligenza artificiale siano indiscussi protagonisti della più
recente speculazione legislativa, giurisprudenziale e dottrinale, occorre segnalare che il rapporto
Automating Society Report, curato dall’organizzazione no profit di ricerca e advocacy Algorithm Watch,
documentando le numerose iniziative dell’Unione europea in questo campo, già peraltro prima
dell’avvento di Ve.Ra.17, ha inserito il nostro Paese al vertice della classifica per avere adottato nel 2019
gli indici di affidabilità fiscale (ISA)18, con l’obiettivo di fornire al contribuente una auto-valutazione della
propria posizione con il fisco, di incentivare (di conseguenza) l’assolvimento degli oneri tributari dei
contribuenti e di meglio indirizzare l’attività di controllo dell’Amministrazione finanziaria.
Quanto appena detto senza dimenticare che le liquidazioni automatizzate delle dichiarazioni fiscali
costituiscono una delle più risalenti ed embrionali forme di impiego dell’intelligenza artificiale nel
perimetro tributario domestico.
In termini puramente funzionali, l’algoritmo rappresenta una serie di istruzioni potenzialmente in
grado di individuare la soluzione a un problema o di giungere a conclusioni cognitive utilizzando dati
noti. Meccanismo che, pur dovendo qui mettere da parte eventuali approfondimenti, richiama
l’istituto giuridico delle presunzioni (art. 2727 c.c.), ovvero le conseguenze che la legge (presunzione
legale) o il giudice (presunzione semplice) traggono da un fatto noto per risalire a un fatto ignoto.
In linea generale, è possibile distinguere tra sistemi di intelligenza artificiale “simbolici” e “non
simbolici” in relazione alla tipologia degli algoritmi utilizzati.
In particolare, i sistemi simbolici adottano algoritmi “deterministici” (c.d. knowledge-based), su cui si
sono basate le prime forme di intelligenza artificiale, ossia algoritmi che seguono una rigida
16 Il presente paragrafo è estratto, con gli opportuni aggiornamenti, da CRAMAROSSA M., MARAGLINO M., Intelligenza artificiale,
imprese e professioni, Giuffrè Francis Lefebvre, 2024, pagg. 16-35 e pag. 61 e da FRANCIOSO C., Intelligenza artificiale
nell’istruttoria tributaria e nuove esigenze di tutela, in Ras. Trib., 2023, pag. 47 e ss.
17 Si rimanda al successivo paragrafo per una esaustiva panoramica sul tema.
18 Introdotti dal Governo Gentiloni nel 2017, sviluppati da SOSE (Soluzioni per il sistema economico), società partecipata dal
MEF e dalla Banca d’Italia, ed entrati in vigore nel 2019.
10 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
programmazione logica di causa ed effetto (basata sul “se-allora”), conducente a un risultato
univoco, mentre quelli non simbolici si fondano su algoritmi “probabilistici” (o “stocastici”), vale a
dire organizzati anche su istruzioni probabilistiche o casuali, in modo da poter interpretare meno
manichea le poliedriche espressioni della realtà.
Gli algoritmi non deterministici si differenziano dalla logica inferenziale puramente causale poiché
ammettono vari risultati possibili, identificando di volta in volta quello più probabile. Per quanto
riguarda l'apprendimento automatico (machine learning), si fa riferimento a processi che consentono
a una macchina intelligente di migliorare le proprie capacità e prestazioni nel tempo. Pertanto, il
dispositivo tecnologico sarà in grado di “istruirsi”, cioè di apprendere dai dati acquisiti dall'esperienza
e migliorare la propria capacità di svolgere determinati compiti, di rispondere adeguatamente e di
svolgere le funzioni a esso assegnate. L'algoritmo di autoapprendimento costruisce così un modello
da applicare ai nuovi dati, seguendo un modello virtuoso di miglioramento di sé stesso.
A seconda del tipo di algoritmo utilizzato per l'apprendimento automatico, cioè in base alle modalità
con cui la macchina impara e accumula dati e informazioni, esistono tre sistemi differenti:
apprendimento supervisionato, non supervisionato e per rinforzo, quest'ultimo non rilevante
(attualmente) in ambito tributario. L’apprendimento supervisionato comporta la fornitura al sistema
di un insieme di informazioni specifiche e codificate, un database composto da dati ed esperienze
comuni, a cui la macchina può attingere per rispondere a problemi specifici. In pratica, si fornisce alla
rete un insieme di input con output noti (training set), in modo che, una volta analizzato, consente di
memorizzare il legame che li unisce e di imparare a generalizzare le corrette regole associative.
Questo tipo di apprendimento preconfezionato, che simula il pensiero umano (c.d. “albero
decisionale”), permette alla macchina di scegliere la migliore risposta agli stimoli ricevuti, includendo
generalmente fattori probabilistici nella funzione di valutazione.
Le controindicazioni di questo tipo di apprendimento riguardano la necessità di un lungo processo di
programmazione e il rischio di alterazioni, anche minime, che possono indurre l’algoritmo a
sviluppare distorsioni cognitive causate da impostazioni errate o da pregiudizi (c.d. bias). Queste
distorsioni sono spesso difficili da identificare, ma possono avere conseguenze molto pericolose. Per
superare queste criticità sono state create alcune varianti (come le random forests) che, grazie alla
prevalenza di fattori probabilistici, risultano più affidabili, anche se possono risultare carenti sul
fronte della interpretabilità delle risposte fornite.
La supervisione può basarsi anche sulle “reti neurali artificiali”19, ovvero fitte reti in grado di processare
informazioni interagendo con la realtà, avvicinandosi sempre più all’efficienza del nostro cervello,
atteso che operano al pari dei neuroni cerebrali dell’uomo, sino a poter individuare soluzioni
inaccessibili alla nostra mente. In questo modello di intelligenza artificiale, la programmazione è
19 Il primo modello teorico di un rudimentale neurone artificiale vede la luce nel 1943, ad opera degli scienziati MCCULLOCH e
PITTS, che descrivono un apparato in grado di lavorare su funzioni booleane elementari, e solo su quelle. Nel 1949, lo
scienziato D.O. HEBB ipotizza la possibilità di istruire le macchine con un apprendimento che emuli quello alla base
dell’intelligenza umana. Con “Perceptron”, ideata da ROSENBLATT nel 1958, la prima rete neurale artificiale diventa realtà.
11 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
semplificata poiché le reti possono auto-organizzarsi basandosi su esempi di coppie input-output e
possono auto-correggersi attraverso algoritmi di backpropagation. Questi algoritmi, dopo vari tentativi,
percorrono il percorso iniziale in senso inverso, partendo dallo strato dell’output per trasmettere le
informazioni sugli errori fino agli strati intermedi. L'autoapprendimento e il percorso esatto compiuto
dall'artefatto tecnologico sono così complessi e dettagliati (deep learning) da risultare impenetrabili,
tanto che vengono definiti modelli oscuri o black box.
Invece, si parla di apprendimento non supervisionato quando il sistema, analizzando dati non
classificati, è in grado di trovare autonomamente correlazioni tra questi dati e creare gruppi (i.e.
cluster) rappresentativi per la loro categorizzazione, senza dover seguire regole preimpostate
durante la progettazione dell'algoritmo. Questo metodo è versatile ed economico rispetto
all'apprendimento supervisionato e riduce il rischio di bias da programmazione.
Per fornire qualche riferimento concreto alle diverse tipologie di algoritmi cui l’Amministrazione
finanziaria ricorre, si segnala, da un lato, che l’apprendimento di Ve.Ra. (che verrà compiutamente
analizzato nel paragrafo che segue) è di tipo supervisionato, atteso che confronta dati già classificati
dai programmatori, mentre, dall’altro, gli indici sintetici di affidabilità fiscale (ISA), al pari degli studi
di settore, entrambi basati sul clustering, rientrano tra le applicazioni non supervisionate.
Ciò posto, non si conosce però – ad oggi – il modello esatto di apprendimento supervisionato
effettivamente adottato dall’Amministrazione finanziaria, per quanto si ipotizzi l’impiego di alberi
decisionali, non escludendo tuttavia modelli più accurati, ma meno interpretabili, come le random
forests o le reti neurali.
Questa asimmetria informativa dovrà necessariamente trovare soluzione, attesa la indispensabilità di
un risultato trasparente e interpretabile da utenti umani, scevro da fraintendimenti. Al contempo, da
più parti, si segnala che, specie nei casi di utilizzo di sistemi non simbolici di intelligenza artificiale, la
pretesa di richiedere all’algoritmo di fornire la motivazione delle proprie scelte e la traccia del
percorso logico-decisionale adottato comporterebbe inevitabilmente la condanna all’inutilizzabilità
proprio degli strumenti più efficaci.
Comunque la si pensi, non si possono trascurare i principi cardine stabiliti dal Consiglio di Stato con le
sentenze del 2019 (nn. 2270 e 8472), che, come si avrà modo di meglio illustrare nel prosieguo,
riconoscono, da un lato, la piena conoscibilità a monte del modulo utilizzato (i.e. codice algoritmico)
e dei criteri applicati e, dall’altro, la precisa imputabilità della decisione all’organo titolare del potere.
Temi che il legislatore italiano sembra voler pienamente valorizzare con il già richiamato d.d.l. in
tema di “Norme di principio in materia di intelligenza artificiale”, posto che si precisa che i sistemi e i
modelli di intelligenza artificiale devono essere sviluppati e applicati nel rispetto della autonomia e
del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità.
12 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
4. L’intelligenza artificiale e il procedimento di accertamento: lo stato
dell’arte (Ve.Ra.)20
“L’“analisi del rischio fiscale” ricomprende le tecniche, le procedure e gli strumenti informatici
utilizzati per individuare i contribuenti che presentano un elevato rischio fiscale, inteso come il rischio
di operare, o aver operato, in violazione di norme di natura tributaria ovvero in contrasto con i
principi o con le finalità dell’ordinamento tributario; una volta individuate le posizioni fiscalmente
rischiose, le stesse sono trasmesse alle articolazioni organizzative che si occupano dei controlli, che
effettuano ulteriori approfondimenti e valutazioni al fine di individuare i soggetti nei cui confronti
avviare un’attività istruttoria. (…) Nell’ambito dei controlli fiscali il maggiore rischio per i diritti dei
contribuenti non è tanto la quantità di dati a disposizione dell’Amministrazione finanziaria, ma
eventualmente la loro incompletezza e la visione “parziale” che ne deriva, con conseguente possibile
alterazione del quadro istruttorio complessivo e compromissione del principio di capacità contributiva
e, in definitiva, dell’equità sociale e dell’equilibrio delle finanze pubbliche” (estratto da Agenzia
Entrate - INFORMATIVA SULLA LOGICA SOTTOSTANTE I MODELLI DI ANALISI DEL RISCHIO BASATI SUI
DATI DELL’ARCHIVIO DEI RAPPORTI FINANZIARI – pag. 3-4).
Ve.Ra. è l’acronimo di “Verifica dei rapporti finanziari”, strumento di data analysis finalizzato a
contribuire alle “analisi del rischio di evasione” basate sui dati dell’Archivio dei Rapporti Finanziari, in
attuazione di quanto previsto dalla legge di bilancio per il 2020 (art. 1, commi da 681 a 686, l. 160 del
2019).
Il passaggio chiave dell’intero processo dei controlli è costituito dalla individuazione del rischio fiscale
da intercettare. Sono le caratteristiche del rischio che si intende rilevare che guideranno gli algoritmi
nel processo di selezione dei contribuenti, partendo da una popolazione elevata di soggetti fino ad
arrivare a un “campione” di posizioni a elevato rischio fiscale.
Il ruolo centrale di tali analisi è assunto, come detto, dall’Archivio dei Rapporti Finanziari. Tale banca
dati, istituita ai sensi dell’art. 7, comma 6, d.P.R. 605/1973, è stata successivamente implementata e
destinata a svolgere un ruolo chiave nella lotta all’evasione fiscale, a opera dell’art. 11 d.l. 201 del 2011.
Le informazioni contenute in tale banca dati sono infatti quasi sempre utilizzate nel corso delle attività
di selezione e controllo, svolgendo un essenziale ruolo segnaletico nell’ottica del contrasto all’evasione.
Le due norme istitutive precitate prevedono che le nuove analisi informatizzate del “rischio di
evasione” utilizzino prioritariamente le informazioni presenti nell’Archivio dei rapporti finanziari,
previa “anonimizzazione/pseudonimizzazione” dei dati anagrafici dei contribuenti.
Nel Documento sulla valutazione d’impatto delle nuove analisi e selezione del rischio di evasione
informatizzate viene illustrato, nella forma dell’allegato tecnico, un esempio concreto di applicazione
20 Per tali aspetti si veda, la l. 27 dicembre 2019, n. 160, art. 1, c. 682 (Legge istitutiva di Ve.Ra.); la Circolare 20 giugno 2022,
n. 21/E e la Direttiva ADE 2023/74424 del 15.3.23.
13 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
della logica degli algoritmi sviluppati al preciso fine di “effettuare efficaci selezioni delle posizioni di
contribuenti nei cui confronti avviare un’attività istruttoria”
.
Ciò premesso, vediamo, in estrema sintesi, come si articola l’esempio di selezione informatizzata dei
contribuenti fornito dall’Agenzia.
FASE 1: la selezione iniziale dei contribuenti (su dati presenti in A.T.).
L’esempio attiene la selezione di imprese individuali operanti in un determinato settore merceologico
del commercio al dettaglio, tipicamente caratterizzato da elevati margini, che dovranno essere
individuate dall’algoritmo sulla base di date peculiarità, introdotte “a monte” nella funzione di analisi.
Più in dettaglio l’algoritmo, lavorando su una platea di vaste dimensioni, dovrà estrapolare le imprese
del campione che presentano in A.T., congiuntamente, le seguenti caratteristiche:
1. una differenza, fra i dati della fatturazione elettronica e dei corrispettivi telematici, tra ricavi e
costi inferiore al 5%;
un valore aggiunto estremamente esiguo rispetto al numero dei dipendenti;
3. un valore della variabile “reddito d’impresa per addetto” inferiore a una certa soglia individuata
a livello di settore di attività.
2. FASE 2: utilizzo dell’Archivio dei Rapporti Finanziari.
Alla prima lista di imprese individuali individuate dall’algoritmo sulla base delle indicazioni sopra
esaminate, sono abbinate le informazioni desumibili, per ciascuna di esse, dall’Archivio dei Rapporti
finanziari.
Utilizzando il dato relativo all’ammontare complessivo dei movimenti in entrata sui conti correnti e
sugli altri rapporti intrattenuti nell’anno di riferimento, l’algoritmo andrà a selezionare tutte quelle
imprese che presentano cumulativamente:
4. un ammontare di versamenti annui superiore di almeno il 150% dei ricavi dichiarati
e
5. non inferiore a 300.000 euro.
FASE 3: scarto posizioni giustificabili.
Per evitare inefficienze l’algoritmo dovrà essere stato addestrato a effettuare un ultimo passaggio
che possiamo definire di “scrematura”, inerente all’individuazione di tutte quelle imprese individuali
– selezionate sulla base dei due passaggi precedenti – che risultino avere giustificazioni alle suddette
anomalie. In particolare l’algoritmo sarà stato addestrato per individuare, sulla scorta dei dati
presenti nella banca dati degli atti del registro e da quella delle certificazioni dei sostituti d’imposta,
informazioni relative per es. ad atti di compravendita effettuati dal contribuente che possono
giustificare gli incrementi patrimoniali suddetti. La discrepanza fra flussi finanziari in entrata e ricavi
14 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
dichiarati potrebbe ad esempio trovare giustificazione da una dismissione immobiliare o da una
eredità ricevuta o da redditi assoggettati a tassazione separata.
FASE 4: predisposizione della lista nominativi e invio alle direzioni provinciali.
I nominativi delle imprese individuali che risultano dopo le tre fasi precedenti sono accomunati fra
loro da un possibile o altamente probabile rischio di sotto-dichiarazione dei ricavi conseguiti nello
svolgimento dell’attività di commercio al dettaglio.
Le direzioni provinciali, una volta ricevute le liste di contribuenti di loro competenza, potranno
ulteriormente affinare le analisi di rischio attraverso gli ulteriori elementi informativi di cui
dispongono. Tra questi ultimi, ad esempio:
- le risultanze di attività ispettive poste in essere nei confronti di uno o più dei contribuenti
segnalati;
- le valutazioni derivanti dalla conoscenza del territorio di riferimento e delle peculiari tipologie di
svolgimento dell’attività economica oggetto di indagine.
FASE 5: l’attività ispettiva.
Come più volte ribadito nella documentazione in commento, l’inserimento di un contribuente in una
lista selettiva, costruita sulla base dei processi informatizzati di cui sopra, non equivale
necessariamente all’avvio di un controllo fiscale.
L’Agenzia delle entrate potrà infatti sempre valutare se inviare ai contribuenti selezionati delle
lettere di compliance, invitando gli stessi alla rimozione delle anomalie segnalate o, in alternativa,
avviare vere e proprie attività di verifica sulla base degli ordinari poteri vigenti ai fini dell’Iva e delle
imposte sui redditi21
.
21 Ai dati così standardizzati viene applicato l’algoritmo che, come anticipato, è stato in precedenza “addestrato” usando i
dati storici delle posizioni già sottoposte a controllo. In particolare, l’algoritmo opera attraverso i seguenti passaggi:
1. attribuzione di ciascuna nuova posizione all’appropriato gruppo di soggetti, in corrispondenza del quale è stato
addestrato uno specifico modello (ad esempio, le posizioni emerse a valle del percorso in argomento saranno incluse nella
platea delle persone fisiche titolari di partita IVA);
2. applicazione di un modello predittivo che, utilizzando i parametri già stimati sulla base dei dati storici, attribuisce a
ciascuna posizione la probabilità di archiviazione ovvero di attivazione di un accertamento;
3. applicazione di un modello predittivo che, condizionatamente all’attivazione di un accertamento, attribuisce, per ogni
possibile modalità istruttoria, un livello di probabilità alle possibili reazioni del contribuente: versamento dell’importo
corrispondente alla pretesa erariale; atteggiamento inerte con consequenziale iscrizione a ruolo delle somme dovute etc.
La variabile “risposta” (variabile di output) di entrambi i modelli predittivi citati nei punti 1. e 2. è una variabile binaria (0/1)
che codifica, rispettivamente la realizzazione dell’evento “archiviazione” (o del suo complementare) e dell’evento “mancata
impugnazione del provvedimento” (o del suo complementare).
Le variabili esplicative dell’output (predittori o co-variate) sono scelte tra quelle note ex-ante per tutte le posizioni che
pervengono alla struttura, in modo da massimizzare il potere predittivo del modello, che viene misurato con opportuni
indicatori di accuratezza.
Nel caso oggetto del presente esempio, in cui la platea è costituita da persone fisiche titolari di partita IVA, i predittori
maggiormente significativi risultano essere i seguenti: fascia di età / settore di attività economica / volume d’affari / reddito
complessivo / reddito d’impresa / reddito da partecipazioni / rapporto tra costi e ricavi / tipo di fonte d’innesco del
controllo (verbale di constatazione, iniziativa dell’ufficio, etc) / numero di accertamenti ricevuti in anni precedenti / numero
15 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
***
Secondo l’Agenzia22 l’esempio mostrerebbe che “il ricorso alla modellazione statistica dei dati non
implica in alcun modo l’automatica emanazione di provvedimenti impositivi nei confronti dei
contribuenti selezionati mediante procedure totalmente automatizzate.
Al contrario, secondo la logica descritta, il ruolo dei modelli di analisi stocastica è puramente
ancillare, essendo limitato al supporto delle strutture di controllo nella gestione di posizioni che sono
venute all’attenzione dell’Amministrazione finanziaria per motivi indipendenti dall’applicazione dei
modelli stessi. Tuttavia, i modelli così sviluppati consentono di fornire agli organi di controllo delle
indicazioni che, in ultima analisi, potranno delineare con maggiore accuratezza i soggetti che
presentano elevate probabilità di violazione di norme tributarie” 23
.
A pag. 6 del Documento cit., l’Agenzia “ribadisce che nello svolgimento del processo di analisi viene
sempre garantito l’intervento umano e, di conseguenza, non si fa uso di alcun tipo di processo
decisionale completamene automatizzato. Infatti, tutte le fasi summenzionate sono curate da
personale specificamente individuato e, inoltre, gli esiti delle analisi non vengono utilizzati per
l’emissione diretta di provvedimenti impositivi, bensì per segnalare alle strutture di controllo i
contribuenti che presentano un elevato livello di rischio. A loro volta, le strutture di controllo
possono autonomamente, in base alle risultanze di ulteriori approfondimenti, decidere quali sono le
posizioni rispetto alle quali attivare un’istruttoria. L’impostazione così adottata, pertanto, consente di
garantire che, in esito alle attività di analisi, non si crei alcun automatismo lesivo della sfera giuridica
dei contribuenti. Inoltre, nel momento in cui vengono utilizzate le informazioni dell’Archivio dei
rapporti finanziari per l’individuazione dei rischi fiscali, i dati personali dei contribuenti vengono
“pseudonimizzati” (cioè sostituiti con codici fittizi), in modo che, nel corso del trattamento di tali dati,
di precedenti iscrizioni a ruolo/ percezione di redditi da pensione / indicatori di ricchezza, quali numero di immobili e
numero di automobili di proprietà / importo delle utenze per servizi.
Gli output dei modelli predittivi sopra menzionati sono combinati in un unico indicatore che, misurando il “valore” di
ciascuna posizione in termini di rischiosità e proficuità, può essere utilizzato per assegnare un ordine di priorità alle
posizioni stesse e ottimizzare il processo di calendarizzazione delle attività di controllo.
22 Si veda pag. 20 della Informativa sulla logica sottostante i modelli di analisi del rischio basati sui dati dell’archivio dei
rapporti finanziari.
23 “L’analisi del rischio fiscale rientra in un processo organizzativo che, tramite modelli e tecniche di analisi deterministiche e
stocastiche, utilizza le informazioni presenti nelle basi dati per associare la probabilità di accadimento ad un determinato
rischio fiscale, effettuando, ove possibile, anche una previsione sulle conseguenze che possono generarsi dal suo
inveramento.
Detto processo può essere scomposto nelle seguenti fasi:
1. individuazione della platea di riferimento;
2. scelta delle basi dati;
3. messa a disposizione delle basi dati;
4. analisi della qualità;
5. definizione del criterio di rischio;
6. scelta del modello di analisi;
7. verifica della corretta applicazione del modello e del criterio di rischio;
8. estrazione e identificazione dei soggetti;
9. test su un campione della sotto-platea di riferimento;
10. predisposizione delle liste selettive”
.
16 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
non sia mai consentita la possibilità di associare i dati finanziari ad uno specifico individuo, prima che
sia stata verificata la presenza di un rischio fiscale”
.
***
Vi è, infine, da osservare l’affermazione dell’Agenzia delle Entrate (a pag. 3 nelle Premesse e
definizioni) in forza della quale “per salvaguardare le esigenze di riservatezza delle attività
istituzionali dell’Agenzia delle entrate ed evitare l’adozione di condotte suscettibili di eludere i
controlli, non si darà conto - sempre in aderenza alle predette linee guida - degli elementi di dettaglio
sui singoli percorsi di indagine né delle informazioni sull’architettura informatica utilizzata (…)”
.
***
Alla luce di quanto sopra, è allora ragionevole chiedersi se Ve.Ra. svolga esclusivamente una mera
funzione ancillare di selezione preventiva e compliance, oppure se, in realtà, possa diventare “vera” e
propria funzione di accertamento.
5. La legittimità dei provvedimenti amministrativi basati sull’intelligenza artificiale
Come si è già avuto modo di evidenziare in precedenza, non tutti gli algoritmi sono uguali.
In ambito amministrativo gli algoritmi dovranno rispondere, quanto meno, al tema della conoscibilità
e della non automaticità dell’artefatto tecnologico (ovvero l’esigenza che sia sempre verificato il
principio human in the loop), cui si aggiunge l’ulteriore principio di non discriminazione algoritmica.
Su questi temi è intervenuta tempestivamente la giustizia amministrativa.
In particolare, il Consiglio di Stato, con due storiche sentenze datate 2019 (nn. 2270 e 8472)24, ha
chiarito alcuni principi cardine nell’ambito di operazioni algoritmiche utilizzate nei procedimenti
amministrativi.
La Corte, pur non negando la portata innovativa degli algoritmi in termini di efficienza e di neutralità
dell’operato della Pubblica amministrazione, non ha celato tuttavia la necessità di una lettura critica
del fenomeno, posto che l’impiego di tali strumenti comporta in realtà una serie di scelte e di
assunzioni tutt’altro che neutre25, dipendenti in gran parte dai criteri e dai dati di riferimento
utilizzati, “in merito ai quali è apparso spesso difficile ottenere la necessaria trasparenza”
.
24 La vicenda approdata innanzi al giudice amministrativo di vertice trae origine dall’algoritmo secretato – realizzato da
Finmeccanica e Hewlett Packard Enterprise (costato 444 mila euro) – al quale si era affidato il Ministero dell’Istruzione,
dell’Università e della Ricerca per decidere le assegnazioni per l’anno scolastico 2016/2017 di 10 mila docenti che avevano
vinto il concorso. L’algoritmo avrebbe dovuto dare la precedenza alla valutazione dei candidati e poi incrociarla con le
destinazioni richieste, invece molti insegnanti si sono ritrovati assegnati a sedi scolastiche lontane anche a mille chilometri
di distanza da casa.
25 Il giudice amministrativo ha evidenziato che “l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti,
selezionati, sistematizzati, ordinati e messi insieme, la loro interpretazione e la conseguente formulazione di giudizi sono
tutte operazioni frutto di precise scelte e di valori, consapevoli o inconsapevoli”
.
17 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
In tale contesto, assumono rilievo fondamentale, anche alla luce della disciplina di origine
sovranazionale, due aspetti preminenti, quali elementi di minima garanzia per ogni ipotesi di utilizzo
di algoritmi in sede decisoria pubblica:
• la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati;
• l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la
necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
La Corte, con estrema competenza e lucidità, ha chiarito che il meccanismo attraverso il quale si
concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una
declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità
di una regola espressa in un linguaggio differente da quello giuridico. La conoscibilità dell’algoritmo
deve essere garantita in tutti i vari aspetti della propria genetica: dagli autori al procedimento usato
per l’elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura
valutativa e decisionale, nonché dei dati selezionati come rilevanti. Il fine di questo percorso
ricostruttivo è quello di poter verificare che i criteri, i presupposti e gli esiti del procedimento
robotizzato siano conformi alle prescrizioni e alle finalità stabilite sia nella fase legislativa che in
quella amministrativa.
Inoltre, alla luce della “caratterizzazione multidisciplinare” dell’algoritmo (un artefatto tecnologico
che richiede competenze giuridiche, tecniche, informatiche, statistiche e amministrative), si impone
la necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da
spiegazioni che la traducano nella “regola giuridica” a essa sottostante e che la rendano leggibile e
comprensibile.
È di plastica evidenza, dunque, che gli atti amministrativi devono sempre rispondere ai principi
evidenziati dal Consiglio di Stato. Da questo punto di vista potrebbe essere spesso impervio il rispetto
del tema della conoscibilità, anche per l’algoritmo Ve.Ra., se solo ci si riporta alle parole del prof.
Paolo Benanti, che, in una recente intervista, ha evidenziato che il codice degli algoritmi non è mai
conoscibile “perché è protetto da copyright26, ma anche se fosse open source nel momento in cui
viene compilato da una macchina il compilatore può iniettare qualsiasi cosa nel codice e renderlo
non più conoscibile”27
.
Rispetto ai temi della non automaticità e del principio di non discriminazione è lo stesso Decreto del
MEF 28 giugno 2022, disciplinante le regole di funzionamento del software antievasione Ve.Ra., a
fornire indicazioni e risposte.
In particolare, quanto alla non automaticità, viene dichiarata l’intenzione di garantire sempre
l’intervento umano, attraverso “personale specificatamente autorizzato” (non meglio identificato)
26 Sul punto si ricorda l’ostracismo di SoSE che, in passato, si è opposta alla esibizione del codice algoritmico degli studi di
settore trincerandosi dietro questioni legate al copyright dello stesso.
27 Intervista di GNAGNI F., IA e democrazia, servono nuovi anticorpi. Parla padre Benanti, in https://formiche.net/2022/06/ia-
democrazia-padre-benanti/#content.
18 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
dal Titolare o dal Responsabile, che verificherà, preliminarmente, l’inserimento dei dati nelle liste di
controllo (c.d. dataset), per le finalità di verifica della corretta applicazione della metodologia e del
modello di analisi adottati, e, successivamente, l’accuratezza e la proficuità dei risultati degli incroci
effettuati in attuazione del modello di analisi e del criterio di rischio fiscale utilizzati28
.
Invece, rispetto alla necessità di non discriminazione algoritmica, vale a dire la necessità di rettificare
i fattori che comportano inesattezze dei dati e la discriminazione, ad esempio, in base all’origine
etnica, alle opinioni politiche, alla religione professata, allo stato di salute o agli orientamenti
sessuali, il citato Decreto riporta un timido riferimento alle misure necessarie per escludere i dati
personali inesatti o non aggiornati.
6. Conclusioni: proposta di istituire un Organismo tecnico nazionale di
monitoraggio dell’utilizzo dell’intelligenza artificiale nel procedimento
tributario
Dalle pagine che precedono emerge che l’Amministrazione finanziaria si sta velocemente muovendo
per implementare i sistemi di intelligenza artificiale nel contrasto dell’evasione e dell’elusione.
In attesa della piena entrata in vigore dell’AI Act, l’utilizzo di tali sistemi subisce dei limiti coerenti
ravvisati nelle decisioni del Garante e stabiliti dal Consiglio di Stato. In particolare, l’utilizzo dello
strumento deve essere rispettoso della privacy e l’algoritmo deve essere conoscibile al fine di
verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle
prescrizioni e alle finalità stabilite sia nella fase legislativa che in quella amministrativa.
Si è, dunque, creata una situazione di impasse in quanto a fronte di un doveroso utilizzo di tali
strumenti al fine del contrasto all’evasione e all’elusione, un accertamento pienamente
“automatizzato” non appare legittimo in quanto l’algoritmo, allo stato, non è o non può essere
trasparente.
28 Peraltro, è la stessa Agenzia delle Entrate, nell’ambito della già richiamata “Informativa sulla logica sottostante i modelli
di analisi del rischio basati sui dati dell’archivio dei rapporti finanziari”, a precisare che “Nello svolgimento del processo di
analisi viene sempre garantito l’intervento umano e, di conseguenza, non si fa uso di alcun tipo di processo decisionale
completamene automatizzato. Infatti, tutte le fasi summenzionate sono curate da personale specificamente individuato e,
inoltre, gli esiti delle analisi non vengono utilizzati per l’emissione diretta di provvedimenti impositivi, bensì per segnalare
alle strutture di controllo i contribuenti che presentano un elevato livello di rischio. A loro volta, le strutture di controllo
possono autonomamente, in base alle risultanze di ulteriori approfondimenti, decidere quali sono le posizioni rispetto alle
quali attivare un’istruttoria. L’impostazione così adottata, pertanto, consente di garantire che, in esito alle attività di analisi,
non si crei alcun automatismo lesivo della sfera giuridica dei contribuenti. Inoltre, nel momento in cui vengono utilizzate le
informazioni dell’Archivio dei rapporti finanziari per l’individuazione dei rischi fiscali, i dati personali dei contribuenti
vengono pseudonimizzati (cioè sostituiti con codici fittizi), in modo che, nel corso del trattamento di tali dati, non sia mai
consentita la possibilità di associare i dati finanziari ad uno specifico individuo, prima che sia stata verificata la presenza di
un rischio fiscale” (INFORMATIVA SULLA LOGICA SOTTOSTANTE I MODELLI DI ANALISI DEL RISCHIO BASATI SUI DATI
DELL’ARCHIVIO DEI RAPPORTI FINANZIARI, cfr. pag. 6).
19 D O C U M E N T O D I R I C E R C A
Intelligenza artificiale e accertamento tributario
Per ovviare a tale problematica, si potrebbe ipotizzare l’istituzione di un Organismo tecnico nazionale
che possa certificare il livello di attendibilità dei sistemi di intelligenza artificiale utilizzati dell’Agenzia
delle Entrate.
Nello stesso modo in cui accade per le certificazioni del livello di apprendimento degli uomini, si
potrebbe immaginare di assegnare a un Organismo il potere di certificare il livello di apprendimento
del sistema29
.
Attraverso questo sistema di certificazioni, l’Organismo in questione potrebbe svolgere la funzione
pubblica di verificare la corrispondenza dell’evoluzione dell’algoritmo con le norme sostanziali al fine
di verificare la sua coerenza:
1. con le norme che disciplinano i limiti dei poteri istruttori dell’Agenzia delle Entrate che a loro
volta devono essere coerenti con la Costituzione e/o con la disciplina unionale per i tributi
armonizzati, ossia con la Carta di Nizza e, di riflesso, con la Carta Edu;
2. con le norme sulla privacy a garanzia del cittadino;
3. con le norme sostanziali tributarie, ossia con le disposizioni che statuiscono le situazioni
soggettive dei contribuenti.
In questo modo, si potrebbe avere un algoritmo coerente con quanto previsto dall’ordinamento
giuridico perché certificato da esperti e, forse, si potrebbero superare le limitazioni dell’applicazione
dell’intelligenza artificiale in relazione alla conoscibilità dell’algoritmo.
Infine, sulla base dell’insegnamento della Consulta che consente alla norma tributaria di essere
completata nei requisiti tecnici da esperti del settore30, tale Organismo, le cui decisioni sarebbero
sottoposte al sindacato della giustizia amministrativa, dovrebbe essere partecipato da rappresentanti
di tutti gli stakeholder che, in quanto destinatari delle disposizioni in materia, hanno interesse
affinché l’intelligenza artificiale sia utilizzata in modo coerente con i valori sistematici
dell’ordinamento tributario.
29 Tale organismo si pone in coerenza con l’architettura dell’AI Act in cui viene istituto un gruppo di esperti indipendenti per
le attività di monitoraggio dell’Ufficio per l’IA (considerando 151).
Più precisamente, l’articolo 68 prevede che la Commissione adotti disposizioni sull’istituzione di un gruppo di esperti
scientifici indipendenti inteso a sostenere le attività di esecuzione a norma del regolamento. Tali esperti devono essere in
possesso di particolari conoscenze e capacità nonché competenze scientifiche o tecniche nel settore dell’IA e devono essere
indipendenti da qualsiasi fornitore di sistemi di IA o di modelli di IA per finalità generali.
30 Vi sono state pronunce in cui la Consulta ha sancito la costituzionalità della disposizione che al fine della determinazione
della base imponibile del tributo faccia riferimento a criteri tecnici (Corte Cost., n. 122 dell’8 luglio 1957, Corte Cost. n.
51/1960, o all’ausilio di organi tecnici nella deliberazione del quantum da versare (Corte Cost., sent. n. 34/1986, Corte Cost.
n. 180/1996, Corte Cost., n. 435/2001) oppure a una composizione dell’organo deliberante che contempli la partecipazione
dei rappresentanti di categoria su cui la prestazione patrimoniale va a incidere (si vedano, ad esempio, Corte Cost., n.
4/1957, n. 55/1963, n. 67/1973, n. 51/1960, n. 21/1669, n. 72/1969, n. 34/1986 e n. 507/1988).
Ferma restando l’esigenza che la Legge stabilisca, oltre ai soggetti passivi ed al presupposto, i criteri per determinare il
quantum dell’imposizione, tali pronunce consentono, in determinate circostanze, la possibilità di delegare tali aspetti ad
organi amministrativi.
Nell’ambito del procedimento di accertamento, il principio di riserva di legge è meno pressante.
Inoltre, un organo composto da rappresentanti delle categorie interessate alla norma procedimentale tributaria potrebbe,
forse, rappresentare un elemento di condivisione dell’applicazione dell’Intelligenza Artificiale all’accertamento tributario.