«I fornitori di Ai sfruttano l’usabilità delle interfacce»

«I fornitori di Ai sfruttano l’usabilità delle interfacce»

Alla protezione e alla violazione dei dati personali sono stati dedicati questa settimana ben due eventi, il Gdpr Day andato in scena a Bologna, dove si è parlato soprattutto di compliance normativa (dall’Ai Act alla Nis2), e la Privacy Week (in corso fino a venerdì 31 ottobre 2025), rassegna che ha radunato a Milano diversi esperti intorno al tema della possibile collaborazione fra uomo e intelligenza artificiale nel rispetto di privacy, etica e regolamentazione. Il tema è caldo e anche complesso, perché tanti sono i fattori che accompagnano il nostro vivere online, fra i vantaggi legati all’uso dei nostri dati digitali e il fatto che questi vantaggi comportano rischi quando accettiamo (senza leggerli) termini e condizioni di servizio di una app o utilizziamo senza troppa accortezza gli smart device in casa o in auto, contesti dove la consapevolezza del pericolo si abbassa (e con essa le difese) e lascia aperti spiragli per l’azione dei malintenzionati.

Tutte le minacce a cui siamo esposti

I rischi a cui siamo esposti sono diversi, riguardano minacce ormai note come ransomware e spyware e minacce evolute come il deep fake e il deep voice, ovvero sia fotomontaggi e audio-montaggi evoluti con cui ci si può fingere qualcun altro, e toccano anche la sfera del cosiddetto “sharenting”, ovvero sia la condivisione di contenuti dei minori da parte dei genitori. La smart home, paradossalmente, diventa un luogo dove poter essere spiati attraverso gli stessi apparecchi (videocamere di sorveglianza in primis ma anche assistenti digitali, tv e altri dispositivi connessi) che dovrebbero garantirci maggiore sicurezza o comunque uno stile di vita migliore. Eppoi c’è ovviamente il tema del riconoscimento facciale in luoghi pubblici e dei sistemi di polizia predittiva basati su intelligenza artificiale: l’Ai Act, salvo clamorosi dietro front, dovrebbe scongiurarne l’uso nella Ue per lungo tempo.

L’educazione come antidoto alla tecnocrazia

Guido Scorza, componente del Collegio del Garante della privacy per la protezione dei dati personali, è stato uno dei relatori all’evento di Bologna e con il Sole 24 Ore ha fatto il punto sullo stato di “avanzamento” di due impianti normativi fondamentali per la tutela della privacy, vale a dire AI Act e Gdpr. «Sebbene convergenti – ha spiegato – i due regolamenti attengono ad ambiti diversi e mirano a garantire alle persone che vivono in Europa il rispetto di diritti e libertà fondamentali nella società dei dati e degli algoritmi. Non siamo purtroppo dove dovremmo essere e non possiamo quindi parlare di totale protezione della privacy, perché l’esistenza delle regole è un presupposto necessario ma non sufficiente per governare l’impatto dell’intelligenza artificiale sulla società».

I rischi per la democrazia

Le criticità intorno a questo tema, dunque, non mancano ed è abbastanza chiaro come vi sia ancora molta strada da fare per scongiurare il rischio, evidenziato da Scorza, che la tecnocrazia abbia la meglio sulla democrazia. È indubbio, infatti, che le Big Tech, i provider di servizi Ai e i vendor di apparecchi per la smart home raccolgano miliardi di dati sui comportamenti digitali delle persone, aprendo il fianco alla possibilità di essere “spiati” o di essere perlomeno “complici” di un sistema di profilazione avente scopi che possono andare anche oltre il profitto. Come affrontare questo problema? «Il più efficace strumento per resistere al capitalismo della sorveglianza e alla sorveglianza del capitalismo – precisa l’esperto – è investire per educare a un uso consapevole di queste tecnologie e per far conoscere a tutti regole e diritti. Anche in questo caso, però, siamo indietro e in Italia più che nel resto d’Europa, essendo terzultimi quanto a livello di alfabetizzazione digitale di base».

Fonte: Il Sole 24 Ore