Rischio monopolio per l’intelligenza artificiale nella Pa

Rischio monopolio per l’intelligenza artificiale nella Pa

L’intelligenza artificiale promette di rivoluzionare la pubblica amministrazione, offrendo servizi più efficienti, personalizzati e capaci di supportare le decisioni in modo intelligente. Ma attenzione: se nella teoria tutto sembra dorato, nella pratica — soprattutto a livello locale — l’adozione dell’Ia incontra ostacoli tecnologici, normativi e, soprattutto, culturali.

Algoritmo scatola nera

Una delle prime questioni da affrontare è la trasparenza. Gli algoritmi — specie quelli di Ia generativa come ChatGPT — prendono decisioni in modo spesso opaco. In una Pa, dove ogni atto deve essere motivato, è fondamentale che i sistemi siano spiegabili e che si sappia sempre chi è responsabile di un eventuale errore: il funzionario, il fornitore o l’algoritmo?

Dati (e Ia) spazzatura

L’Ia si nutre di dati. Ma nelle amministrazioni locali questi dati sono spesso incompleti, non interoperabili e carenti di governance. Il rischio è quello ben noto del «garbage in, garbage out»: se i dati sono distorti, lo saranno le decisioni.

Resistenze umane

C’è poi un problema noto ma mai risolto: la carenza dicompetenze digitali. L’Ia, lungi dall’essere una bacchetta magica, richiede capacità critiche per interpretare i risultati — spesso soggetti a «allucinazioni» informative — e per distinguere tra innovazione utile e semplice moda. La paura che questi strumenti possano sostituire le mansioni più ripetitive o addirittura diventare strumenti di controllo, alimenta una naturale resistenza culturale.

Fonte: Il Sole 24 Ore