Dalla manipolazione al controllo: intelligenza artificiale in cerca di regole

Il controllo delle emozioni da parte di sistemi AI, peraltro, può portare alla manipolazione comportamentale di bambini, anziani o altri consumatori, sfruttandone le vulnerabilità cognitive e inducendoli a scelte commerciali indesiderate. Allo stesso tempo, questi sistemi automatizzati sono spesso opachi e pertanto difficili da contestare.

Si tratta, com’è chiaro, di una sfida globale e avrebbe poco senso affrontarla all’interno degli stretti confini nazionali. Ecco perché sia l’Unione Europea che gli Stati Uniti si stanno muovendo – in parallelo, ma con approcci molto diversi – nella direzione di una regolamentazione delle applicazioni AI “ad alto rischio”.

Lo scorso aprile la Commissione Europea ha pubblicato una nuova proposta di Regolamento dell’intelligenza artificiale, che ora dovrà essere discussa e approvata dal Consiglio e dal Parlamento Europeo. La proposta introduce regole, proporzionali al livello di rischio, per prodotti e servizi basati sull’AI. Pur non prevedendo nessun nuovo diritto individuale per i consumatori/cittadini, il regolamento propone ambiziosi obiettivi di correttezza, sicurezza e trasparenza per le applicazioni AI.

Il quadro proposto dalla Commissione si basa su diversi livelli di rischio: alcuni sistemi di AI sono considerati a rischio intollerabile e sono pertanto proibiti. Si tratta delle pratiche online di manipolazione cognitiva che causano danni fisici o psicologici o sfruttano la vulnerabilità dovuta all’età o alla disabilità. Sono anche vietati i sistemi di valutazione sociale dei cittadini che possono produrre effetti dannosi sproporzionati o fuori contesto, nonché i sistemi di identificazione facciale usati indiscriminatamente dalle forze dell’ordine in luoghi aperti.

Altri sistemi AI sono considerati ad alto rischio (incluso il riconoscimento facciale, o l’AI usata in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale, valutazione del credito, o l’AI usata da parte delle forze dell’ordine, della polizia di frontiera e dei tribunali). I fornitori e gli utilizzatori di tali sistemi AI dovranno effettuare una valutazione dei rischi e assicurare la sorveglianza umana nello sviluppo dell’algoritmo per garantirne la modificabilità e la comprensibilità. Dovranno, inoltre, preparare un adeguato piano di gestione dei dati, colmando eventuali lacune, prevenendo qualsiasi pregiudizio (“bias”) intrinseco all’algoritmo e contestualizzando il sistema AI nella specifica realtà socio-geografica in cui se ne prevede l’utilizzo.

Fonte: Il Sole 24 Ore