Quando gli algoritmi sbagliano spesso sono solo disinformati

Può capitare di vedersi rimuovere un post da Facebook, da Twitter o da Instagram senza capirne l’esatto motivo. Per la maggior parte di noi, nulla di grave. Ma proviamo a pensare a che cosa accade quando da un post dipendono dei redditi. Può accadere ad esempio, che su YouTube l’utente non ottenga il budget dalla pubblicità perché l’algoritmo ha etichettato quel video come contenuto che non rispetta la policy o una regola interna.
Alla base di questi meccanismi vi è l’Intelligenza Artificiale, in particolare sistemi di apprendimento automatico, ovvero capaci di “imparare” a etichettare le informazioni che ricevono – per esempio un like, o un tag a una fotografia – per attribuirle al medesimo contenuto in futuro. Come quando all’interno di una procedura, Google ci chiede di selezionare le immagini che contengono un semaforo all’interno di un quadrato con nove fotografie. Facendolo, stiamo aiutando l’algoritmo di Google a riconoscere meglio i semafori nelle figure che dovrà processare. Vi sono poi applicazioni il cui lo scopo è etichettare una notizia come più o meno affidabile; altre che devono essere allenate a individuare la presenza di eventuali immagini pedopornografiche.
Questi sistemi di apprendimento automatico sono pervasivi nella nostra quotidianità. Mole volte non ci rendiamo conto di quante dimensioni della nostra vita vengono gestite in questo modo, né siamo consapevoli dei “rischi” che un etichettamento erroneo possa avere nella nostra società. Se il dato viene classificato male, genererà output sbagliati e dunque previsioni errate.
“In una survey che abbiamo condotto di recente coinvolgendo 4000 cittadini da 8 paesi dell’Unione Europea dai 18 ai 75 anni, è emerso che quasi la metà afferma di non avere pressoché nessuna conoscenza sull’intelligenza artificiale” racconta Teresa Scantamburlo, ricercatrice in Digital Ethics dell’Università Ca’ Foscari di Venezia, che studia l’impatto dell’IA sul benessere sociale e che sarà ospite al Festival Trieste Next (22-24 settembre 2022) in una tavola rotonda organizzata dall’Università di Trieste e dalla SISSA dal titolo Quando le macchine pensano troppo. “Eppure, al tempo stesso più del 65% dei rispondenti si è detto fiducioso della positività di tali tecnologie per lo sviluppo di una società sempre più giusta. Un contrasto che ci ha stupiti moltissimo”.
Un primo rischio concreto dovuto ad algoritmi che “etichettano male” è la discriminazione. Le procedure di selezione di varie Università americane, ad esempio, vengono processate non da persone fisiche, ma da algoritmi che analizzano una serie di parametri, come i voti, la partecipazione ad attività extrascolastiche, e via dicendo. Laddove sono presenti biases negli algoritmi o nei dati utilizzati per addestrare l’algoritmo, quando per esempio non tengono conto di variabili sulla disuguaglianza socio-economica fra zone di provenienza, possono darsi casi di persone che non vengono ammesse quando avrebbero potuto.
Un secondo problema per la disinformazione è la facilità con cui è possibile oggi, tramite processi basati sulle reti neurali, creare video e immagini fasulli o inesistenti. Non è difficile riuscire a modificare il movimento delle labbra di una persona che sta parlando perché dica tutt’altro, e nel contempo produrre un audio usando il timbro vocale di quella persona mentre dice ciò che noi vogliamo dica.
Il problema è che il più delle volte gli algoritmi su cui si basano decisioni anche importanti della nostra vita, in realtà non sono completamente noti: è difficile risalire al perché si sia generato un tale output.
Come si affronta tutto questo? Nel 2018 la Commissione Europea ha pubblicato delle linee guida etiche per la progettazione dell’Intelligenza Artificiale, a cui è seguita nel 2021 una proposta di legge – attualmente in discussione – sull’ IA definita ad alto rischio. La regolamentazione tuttavia non basta. Serve capire come tenere le redini del Machine Learning per indirizzarlo verso esiti non discriminanti. “Nelle nostre ricerche, che oso definire anche filosofiche – spiega Scantamburlo – spacchettiamo i concetti e i meccanismi interni a questi algoritmi per poter far capire quali sono le loro implicazioni, e come il contributo umano potrebbe interagire con sistemi di apprendimento automatico. Preferiamo parlare di macchina sociale come algoritmo che si esprime interagendo con l’essere umano, il quale possa essere in grado di influenzarne il meccanismo.”

Fonte: Il Sole 24 Ore