Necessario il controllo umano per evitare impatti discriminatori

Necessario il controllo umano per evitare impatti discriminatori

Il terzo comma dell’articolo 11 della legge 132/2025 fissa un principio importante: l’intelligenza artificiale impiegata nell’organizzazione e nella gestione del lavoro non può generare discriminazioni e deve essere governata da garanzie umane efficaci.

La norma richiama espressamente il rispetto dei diritti inviolabili della persona e vieta trattamenti differenziati in base a sesso, età, origine etnica, religione, orientamento, opinioni o condizioni personali e sociali. Ne discende una responsabilità datoriale molto importante: il datore deve valutare ex ante imparzialità e correttezza dei sistemi, presidiare logiche e metriche utilizzate e intervenire quando gli esiti mostrano effetti discriminatori, anche se non intenzionali.

Il rischio distorsione

L’adozione di algoritmi in selezione, valutazione e allocazione dei compiti sposta il rischio dal comportamento umano ai modelli decisionali. Bias nei dati o nelle regole di calcolo possono produrre esiti distorsivi: esclusione sistematica di determinate candidature, penalizzazioni legate all’età o alla maternità, attribuzioni di performance basate su segnali spurii. In questa prospettiva il controllo umano non è un orpello formale, ma l’antidoto operativo che consente di leggere il contesto, correggere gli errori del modello e documentare la tracciabilità delle decisioni.

Il principio antidiscriminatorio del comma 3 si inserisce in un impianto nazionale già robusto: l’articolo 3 della Costituzione, l’articolo 15 dello Statuto dei lavoratori, i decreti legislativi 215 e 216/2003 (razza/etnia, religione, disabilità, età, orientamento) e il Dlgs 198/2006 (Codice delle pari opportunità). Le tutele coprono tutte le fasi del rapporto: accesso, condizioni contrattuali, formazione, progressioni e retribuzione.

Fonte: Il Sole 24 Ore