Appalti, l’Ai verifica gli atti, ma all’uomo tocca l’ultima parola

Appalti, l’Ai verifica gli atti, ma all’uomo tocca l’ultima parola

Contrariamente alla narrazione comune che vede l’intelligenza artificiale come un brutale sostituto del lavoro umano, emerge un modello di cooperazione tra le persone e i sistemi di Ai sempre più strategico: la cosiddetta «human-in-the-loop Ai». In questo paradigma, l’intervento umano è una componente essenziale per l’addestramento, l’utilizzo e il perfezionamento continuo dei sistemi di Ai. Pertanto, l’Ai diventa un’estensione delle capacità umane, potenziandole soprattutto in scenari complessi quali la medicina, la gestione della cosa pubblica, e – in maniera quasi autoreferenziale – anche i sistemi di Ai stessi.

Questo approccio è già parte della nostra quotidianità. Si pensi ai chatbot più evoluti nel servizio clienti: quando il modello rileva una conversazione inefficace o l’utente assume un atteggiamento che mostra insoddisfazione nell’interazione, trasferisce autonomamente il dialogo a un operatore umano. Un altro esempio emblematico riguarda l’addestramento dei moderni modelli linguistici (Large language model – Llm). Spesso, a un utente vengono sottoposte due risposte alternative, chiedendogli di indicare la migliore. Questo feedback proveniente dagli umani, cuore del cosiddetto Reinforcement learning from human feedback (Rlhf), viene prima utilizzato per affinare la qualità delle interazioni e poi incorporato nei dati di addestramento, contribuendo a migliorare il modello a beneficio di tutti gli utenti.

L’Ai e gli appalti

Un caso concreto di applicazione di questo modello in cui umani e macchine collaborano è nel mondo degli appalti. Nel sistema in questione, la tecnologia non emette verdetti, ma agisce come un potente strumento di supporto decisionale, operando sotto la costante supervisione di funzionari umani esperti. Il principio cardine è la sinergia: l’Ai si fa carico dei compiti più onerosi per le capacità umane, come l’analisi ad alta velocità di vaste moli documentali e la verifica incrociata con un corpus normativo complesso e in perenne aggiornamento. Il sistema agisce come un analista instancabile, scandagliando ogni documento di gara per identificare potenziali incongruenze, anomalie formali o clausole a rischio di contenzioso.

Sinergia tra uomo e macchina

Tuttavia, l’output dell’algoritmo non è un giudizio inappellabile, ma una segnalazione qualificata, un allarme che attira l’attenzione del professionista. A questo punto, il ciclo si chiude conl’intervento umano: è il funzionario che, forte della propria esperienza e sensibilità, valuta l’avviso generato dall’Ai. Sarà lui a investigare l’anomalia, a interpretare la sfumatura normativa che la macchina potrebbe non cogliere, e a prendere la decisione finale, assumendosene la responsabilità.

Fonte: Il Sole 24 Ore