
Rischio monopolio per l’intelligenza artificiale nella Pa
L’intelligenza artificiale promette di rivoluzionare la pubblica amministrazione, offrendo servizi più efficienti, personalizzati e capaci di supportare le decisioni in modo intelligente. Ma attenzione: se nella teoria tutto sembra dorato, nella pratica — soprattutto a livello locale — l’adozione dell’Ia incontra ostacoli tecnologici, normativi e, soprattutto, culturali.
Algoritmo scatola nera
Una delle prime questioni da affrontare è la trasparenza. Gli algoritmi — specie quelli di Ia generativa come ChatGPT — prendono decisioni in modo spesso opaco. In una Pa, dove ogni atto deve essere motivato, è fondamentale che i sistemi siano spiegabili e che si sappia sempre chi è responsabile di un eventuale errore: il funzionario, il fornitore o l’algoritmo?
Dati (e Ia) spazzatura
L’Ia si nutre di dati. Ma nelle amministrazioni locali questi dati sono spesso incompleti, non interoperabili e carenti di governance. Il rischio è quello ben noto del «garbage in, garbage out»: se i dati sono distorti, lo saranno le decisioni.
Resistenze umane
C’è poi un problema noto ma mai risolto: la carenza dicompetenze digitali. L’Ia, lungi dall’essere una bacchetta magica, richiede capacità critiche per interpretare i risultati — spesso soggetti a «allucinazioni» informative — e per distinguere tra innovazione utile e semplice moda. La paura che questi strumenti possano sostituire le mansioni più ripetitive o addirittura diventare strumenti di controllo, alimenta una naturale resistenza culturale.
I pregiudizi algoritmici
Le regole ci sono e si fanno più severe: il nuovo Ai Act impone valutazioni d’impatto, registrazione dei sistemi e maggiori garanzie. Ma bisogna anche fare i conti con i bias: i pregiudizi nascosti nei dati possono trasformarsi in decisioni discriminatorie, minando l’equità.
Fonte: Il Sole 24 Ore