Necessario il controllo umano per evitare impatti discriminatori
Il terzo comma dell’articolo 11 della legge 132/2025 fissa un principio importante: l’intelligenza artificiale impiegata nell’organizzazione e nella gestione del lavoro non può generare discriminazioni e deve essere governata da garanzie umane efficaci.
La norma richiama espressamente il rispetto dei diritti inviolabili della persona e vieta trattamenti differenziati in base a sesso, età, origine etnica, religione, orientamento, opinioni o condizioni personali e sociali. Ne discende una responsabilità datoriale molto importante: il datore deve valutare ex ante imparzialità e correttezza dei sistemi, presidiare logiche e metriche utilizzate e intervenire quando gli esiti mostrano effetti discriminatori, anche se non intenzionali.
Il rischio distorsione
L’adozione di algoritmi in selezione, valutazione e allocazione dei compiti sposta il rischio dal comportamento umano ai modelli decisionali. Bias nei dati o nelle regole di calcolo possono produrre esiti distorsivi: esclusione sistematica di determinate candidature, penalizzazioni legate all’età o alla maternità, attribuzioni di performance basate su segnali spurii. In questa prospettiva il controllo umano non è un orpello formale, ma l’antidoto operativo che consente di leggere il contesto, correggere gli errori del modello e documentare la tracciabilità delle decisioni.
Il principio antidiscriminatorio del comma 3 si inserisce in un impianto nazionale già robusto: l’articolo 3 della Costituzione, l’articolo 15 dello Statuto dei lavoratori, i decreti legislativi 215 e 216/2003 (razza/etnia, religione, disabilità, età, orientamento) e il Dlgs 198/2006 (Codice delle pari opportunità). Le tutele coprono tutte le fasi del rapporto: accesso, condizioni contrattuali, formazione, progressioni e retribuzione.
Il quadro europeo
Sul piano europeo il quadro è in ulteriore consolidamento. La direttiva Ue 2023/970 sulla trasparenza retributiva sposta l’attenzione sugli esiti misurabili (divari oltre il 5% fra le retribuzioni saranno da correggere), mentre il Regolamento Ue 2024/1689 (Ai Act) classifica «ad alto rischio» i sistemi usati per assunzione e gestione del personale, imponendo qualità dei dati, tracciabilità e supervisione umana. L’idea di fondo è la stessa del comma 3: ciò che conta non è l’intenzione, ma l’effetto oggettivo delle decisioni automatizzate.
Fonte: Il Sole 24 Ore