Gpt4 mostra tratti comportamentali e di personalità umani. Lo studio

La notizia è destinata ad alimentare il dibattito sull’intelligenza artificiale e le sue applicazioni future: ChatGPT-4 mostra tratti comportamentali e di personalità che sono statisticamente indistinguibili da un essere umano in aspetti come cooperazione, fiducia, reciprocità, altruismo, disprezzo, correttezza, pensiero strategico e avversione al rischio. È la conclusione di uno studio congiunto dell’Università del Michigan e di Stanford dettagliato in un articolo pubblicato sulla rivista Pnas (Proceedings of the National Academy of Sciences). Capire come si comporta ‘Ai è la motivazione dei ricercatori, che hanno utilizzato i test di Turing – che mettono alla prova la capacità di una macchina di mostrare risposte e intelligenza simili a quelle umane – per valutare la personalità e il comportamento dei GPT applicando metodologie proprie della psicologia e dell’economia comportamentale.

Lo studio nel dettaglio

La ricerca ha preso in esame le versioni 3 e 4 di ChatGPT attraverso test di personalità standardizzati e ha invitato i chatbot a elaborare strategie in vari giochi comportamentali che simulano decisioni economiche e morali nel mondo reale, come la gestione di investimenti finanziari. I tratti di personalità dei bot sono stati analizzati tramite il test OCEAN Big-5, che misura cinque dimensioni chiave del comportamento umano: estroversione, nevrosi, gradevolezza, apertura mentale e consapevolezza. Successivamente i Chatbot sono stati messi alla prova in sei giochi distinti progettati per rivelare una serie di tratti comportamentali come il dispetto, la fiducia, la propensione al rischio, l’altruismo, l’equità, la cooperazione e il ragionamento strategico. Le risposte dei bot sono state messe a confronto con quelle di oltre 100.000 individui da 50 differenti paesi, portando al superamento di quello che era sostanzialmente un test di Turing avanzato per Ai. I chatbot hanno dimostrato una propensione alla generosità e all’equità che sono andati oltre quelle del giocatore umano medio. “Le decisioni strategiche dell’Ai in The Prisoner’s Dilemma e in altri giochi, riflettevano una comprensione della cooperazione e della fiducia nel massimizzare gli obiettivi, optando spesso per strategie cooperative che si discostano dalla norma umana”, hanno dichiarato i ricercatori, riscontrando una notevole differenza tra le due versioni Ai di OpenAI. Le prestazioni di ChatGPT-4 sono state notevolmente simili a quelle umane, spesso indistinguibili o addirittura superiori al comportamento umano, suggerendo il suo potenziale per superare il test di Turing in determinati contesti. Al contrario, le risposte di ChatGPT-3 spesso sono state percepite come non umane, evidenziando le differenze nelle tendenze comportamentali tra le due versioni dell’intelligenza artificiale.

Lo sviluppo futuro dello studio

Secondo i ricercatori nel prossimo futuro si dovrà testare più modelli di intelligenza artificiale su più test comportamentali per confrontare così le loro personalità e i tratti distinguibili. In particolare i ricercatori si augurano che lo studio apra un nuovo campo, la “scienza comportamentale dell’intelligenza artificiale”, in cui ricercatori di diverse discipline possano lavorare insieme per studiare i comportamenti dell’intelligenza artificiale e in particolare le loro relazioni con gli esseri umani e l’impatto sulla società futura. “In generale, sapere che ChatGPT è più altruista e cooperativo rispetto alla media degli esseri umani potrebbe aumentare la nostra fiducia nell’usarlo per necessità di negoziazione, risoluzione delle controversie o per l’assistenza”, concludono i ricercatori, aggiungendo che ricerche come queste aiutano le persone a capire quando e come possiamo fare affidamento sull’intelligenza artificiale.

Fonte: Il Sole 24 Ore