La tecno-efficienza aiuta il Fisco, ma deve garantire i diritti

La tecno-efficienza aiuta il Fisco, ma deve garantire i diritti

Le regole europee

Se con il varo dell’Ai Act (Regolamento Ue 2024/1689 del 13 giugno 2024) l’Europa ha puntato sull’effetto Bruxelles per una diffusione a livello globale delle tutele ivi concordate, l’attuale situazione internazionale ci restituisce uno scenario ancora imprevedibile e comunque poco rassicurante. A ciò si aggiunga che il punto 59 dei considerando del Regolamento Ue (laddove afferma che «i sistemi di Ia specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere classificati come sistemi di Ia ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati») sembra depotenziare le tutele in questi ambiti, enfatizzando la funzionalità dell’Ia per una corretta attuazione dei tributi.

Si tratta di argomenti simili a quelli già spesi per i profili derogabili del regolamento del Gdpr (col solo limite del rispetto del principio di proporzionalità quanto alla possibilità di imporre obblighi e restrizioni ai diritti e alle libertà dei privati sanciti dalla disciplina europea che non siano strettamente necessari per il raggiungimento degli scopi fissati dallo Stato membro). Ciò, peraltro, non senza contraddizioni poiché l’articolo 5 del Regolamento vieta l’uso di sistemi di Ia che permettono ad attori pubblici o privati di attribuire un punteggio sociale alle persone fisiche, che possono portare a risultati discriminatori e le Guidelines del 5 febbraio 2025, tra gli esempi degli utilizzi non consentiti, menzionano il caso di autorità fiscali che facciano ricorso a sistemi di controllo predittivi basati sull’intelligenza artificiale muovendo dai dati delle dichiarazioni dei redditi di tutti i contribuenti, in relazione anche ad altri dati di vario genere (abitudini sociali, eccetera).

La situazione italiana

Quanto all’Italia, dobbiamo constatare che il processo di digitalizzazione dei processi di attuazione dei tributi è ormai a uno stato avanzato e su questa realtà il legislatore della legge delega 111/2023 ha strutturato i principi e i criteri direttivi (articoli 2, 4 e 17) per la riforma tributaria promuovendo la interconnessione delle banche dati e l’utilizzo di sistemi di intelligenza artificiale. Le scelte operate mediante i decreti attuativi mostrano la costruzione di un sistema fiscale strutturato tenendo conto dell’evoluzione tecnologica, volto a indurre i contribuenti all’adempimento spontaneo, secondo una logica di facilitazione dei procedimenti nell’ambito di una più ampia strategia preventiva di anticipazione del controllo e dell’accertamento.

Laddove i dati e il loro incrocio lo consentono (accertamenti parziali, controlli di dichiarazione, di versamenti, di crediti, eccetera) si potenziano i riscontri automatizzati per i quali il legislatore ha scelto di escludere il contraddittorio; dove invece è imprescindibile operare valutazioni si procede con moduli procedimentali ispirati alla collaborazione tra Fisco e contribuenti che spesso muovono, però, da risultanze di non conformità a standard di settore esito di utilizzo di Ia. Gli algoritmi ottimizzano ormai le procedure di ispezione attraverso modelli più sofisticati di gestione del rischio di elusione o evasione fiscale, agevolano senz’altro le procedure di scambio di informazioni in materia di assistenza e cooperazione reciproca in ambito internazionale e altro ancora.

Tutte queste attività sono finalizzate all’adozione di atti che – anche sulla scorta della giurisprudenza del Consiglio di Stato sull’uso degli algoritmi ai fini dell’adozione di provvedimenti amministrativi (sentenze 2270/2019 e 881/2020) – devono fondarsi su un percorso logico-giuridico chiaro e comprensibile e rispetto ai quali l’Ia deve restare un mero strumento operativo al servizio dell’intelligenza umana. Da questo punto di vista preoccupano invece possibili utilizzi finalizzati alla predittività del presupposto d’imposta come sembrerebbe nel caso del concordato preventivo biennale, posto che la struttura e il funzionamento dell’algoritmo non è di facile comprensione dalla lettura della nota metodologica che, allo stato, non consente di escludere profili discriminatori e pregiudizievoli. Anzi, la relativa disciplina sembra un valido esempio di come la tecnologia possa costituire il veicolo silenzioso e oscuro di scelte legislative discriminatorie in nome di un asserito efficientismo funzionale, al contempo, per il superamento dell’evasione e per il risparmio di costi da accertamento.

Fonte: Il Sole 24 Ore