
L’ONU entra in gioco nella governance dell’AI. Ecco cosa sta facendo
L’ultima Assemblea Generale delle Nazioni Unite, tenutasi a New Work a fine settembre, aveva all’ordine del giorno ben noti temi di strettissima attualità ma ha anche segnato (questa almeno la sensazione) un punto di svolta per quanto riguarda la (delicata) regolamentazione dell’intelligenza artificiale. La riposta data dall’ONU all’ampiezza delle implicazioni sociali legate alla diffusione dell’AI, sono due nuovi organismi aventi l’obiettivo di costruire un’architettura in grado di assicurare una governance più inclusiva delle tecnologie degli algoritmi, il Global Dialogue on AI Governance e l’Independent International Scientific Panel on AI. Il primo è in buona sostanza un forum che mette intorno al tavolo governi, industria, società civile e comunità scientifica per scambiare pratiche, definire standard comuni, promuovere interoperabilità tra diversi modelli regolatori e quindi contribuire alla costruzione di sistemi di intelligenza artificiale sicuri e affidabili. Il secondo è stato definito come una sorta di IPCC (l’Intergovernmental Panel on Climate Change) per l’AI, con 40 esperti incaricati di produrre analisi e scenari data driven per alimentare le decisioni del Global Dialogue e fungere da “assistente critico” per capire le opportunità, i rischi e gli impatti della tecnologia.
Un divario da colmare
L’idea alla base di questi due nuovi organismi, in estrema sintesi, è quella di mettere ordine in un panorama complesso, riducendo le esistenti frammentazioni regolatorie e rendendo accessibili a tutti strumenti di governance condivisi. L’ostacolo da superare immediatamente è altrettanto facilmente riassumibile e nasce dalla scarsa partecipazione alle iniziative internazionali di rilievo in tema di governance dell’AI, con ben 118 Paesi che rimangono ancora ai margini di questa discussione secondo un rapporto delle stesse Nazioni Unite. Lo sviluppo degli strumenti basati su algoritmi e modelli LLM, in altre parole, procede più velocemente delle regole che dovrebbero guidarlo. E serve di conseguenza accelerare nel trovare una soluzione per colmare questo divario. Il rapporto redatto dal World Economic Forum in collaborazione con Accenture, “Advancing Responsible AI Innovation: A Playbook”, spiega in proposito come la disponibilità di ecosistemi di AI affidabili siano un elemento di differenziazione critico, che consentirà a questa tecnologia di svilupparsi in modo responsabile, massimizzando i benefici e minimizzando i rischi per le persone, la società e l’ambiente. Meno dell’1% delle organizzazioni private del pianeta ha però pienamente adottato l’AI in modo completo e proattivo rispettando questi termini e il rischio che ne consegue è duplice: da un lato, un’adozione irresponsabile o disomogenea della tecnologia, dall’altro, una perdita di fiducia da parte dei cittadini e degli investitori. E l’ONU, per bocca del suo Segretario Generale, António Guterres – che ha defintio l’AI come “la tecnologia in più rapida evoluzione nella storia umana” – sembra aver recepito a dovere un messaggio ribadito a chiare lettere anche da alcuni capi di governo come il Primo Ministro spagnolo, Pedro Sánchez, che all’Assemblea Generale di New York ha centrato il cuore della questione: l’ascesa dell’AI è inarrestabile, ma non può essere ingovernabile”.
Il ruolo del World Economic Forum e i punti critici
Governare l’AI e dare risposta alle incertezze che circondano l’intelligenza artificiale generativa per garantire un processo di adozione che generi benefici per tutti non è solo stabilire regole ma anche trovare un piano di execution per “farle vivere” in ambito economico e industriale. Ed è in questo solco che il Centre for the Fourth Industrial Revolution del World Economic Forum ha lanciato la AI Governance Alliance, organismo che coinvolge governi, imprese, accademia e società civile per promuovere pratiche responsabili. In parallelo, come suggerisce ancora il rapporto “Advancing Responsible AI Innovation”, la linea da seguire per tutti i soggetti coinvolti parte dal presupposto di vedere l’AI (quando affidabile e controllata lungo l’intero suo ciclo applicazione) non come un freno, bensì come un motore di scala. A patto che si allinei la strategia aziendale al processo di innovazione guidato dalla tecnologia e si potenzi la capacità organizzativa interna per governarla. I progetti introdotti dall’ONU non sono infatti esenti da criticità ancora irrisolte, a cominciare dalla questione delle sovranità nazionali (come evitare, per esempio, che nuovi standard internazionali impattino sulla libertà normativa dei singoli Stati?) per finire con la necessità di assicurare la partecipazione attiva anche dei Paesi meno avanzati e meno attrezzati in termini finanziari.
Fonte: Il Sole 24 Ore