Il chatbot alla fine ti dà sempre ragione. La solitudine nell’era dell’intelligenza artificiale

Da oramai diversi decenni la comunità scientifica ha posto la sua attenzione sul crescente problema della solitudine delle persone. La solitudine, infatti, è un fenomeno in crescita a livello globale e la situazione è peggiorata ulteriormente a seguito della pandemia di COVID-19. Questo sentimento pervasivo non solo ha un impatto emotivo, ma anche fisico, su chi ne soffre. Secondo l’American Association of Retired Persons (AARP), si stima che una persona sopra i 45 anni su tre negli Stati Uniti soffra di solitudine cronica. Anche nel Regno Unito la solitudine ha un impatto sociale importante tanto da avere istituito una commissione parlamentare per fare fronte al problema su proposta della parlamentare Jo Cox.
La domanda che è quindi giusto porsi è: l’intelligenza artificiale e i sistemi conversazionali possono contribuire positivamente per limitare la solitudine e gli effetti negativi che questa ha sulla salute delle persone?
La domanda, apparentemente banale, non suggerisce, però, una risposta scontata. Già nel 2018 la rivista del Massachusetts Institute of Technology – MIT Sloan uscì con un articolo intitolato “Even If AI Can Cure Loneliness — Should It?” (Anche se l’intelligenza artificiale potesse curare la solitudine dovrebbe farlo?) in cui si riconosceva ai sistemi intelligenti la capacità potenziale di creare un confronto e compagnia nelle persone, ma che contestualmente contestava la possibilità che questa scorciatoia nella creazione e nel coltivare relazioni potesse in una qualche maniera sconvolgere le norme sociali e limitare la nascita di genuine relazioni tra persone.
Il fatto che l’intelligenza artificiale tenda, infatti, a imparare dai comportamenti delle persone e a adeguare le sue risposte a quello che l’utente finale considera maggiormente preferibile farebbe sì che a tendere l’agente intelligente sia un sistema che l’utilizzatore percepisce come privo di difetti e che tollera – viceversa – ogni difetto dell’utilizzatore polarizzandone i comportamenti e le convinzioni (che, invece, in una dinamica relazionale normale, tendono a trovare naturale moderazione).
Come spesso accade, un possibile futuro distopico è stato anticipato dalla cinematografia ed in particolare dal film del 2013 “HER”, in cui la trama ruota attorno a un uomo che – abbandonato dalla compagna – sviluppa una relazione sentimentale con un sistema operativo dotato di intelligenza artificiale e in cui – in una scena significativa – una donna, interpretata dall’attrice Scarlett Johanson, si presta a dare corpo al sistema operativo stesso per consentire un rapporto fisico con il protagonista (l’uomo quindi – in un’inversione di ruoli – diventa strumento della macchina).
Questa situazione limite, proposta nella fantasia, si è concretizzata – dopo quasi dieci anni – solo di recente con il caso di Replika. Replika è, infatti, un’app progettata per interagire con gli utenti e diventare loro amico. A seguito di un aggiornamento il software ha parzialmente cambiato comportamento ed alcuni utenti più affezionati hanno vissuto questo aggiornamento come la perdita di una persona cara arrivando a minacciare azioni autolesive.
Questa situazione deve essere un campanello di allarme un monito che ci suggerisce che, nonostante l’intelligenza artificiale ed in particolare i chatbot offrano soluzioni promettenti per affrontare il crescente problema della solitudine, è essenziale riflettere sulle implicazioni etiche e morali di tali soluzioni e che siano a supporto e non in sostituzione di genuine e sane interazioni sociali tradizionali.

* Research assistant presso Università degli Studi di Pavia e professore di Digital Marketing – Roma “La Sapienza”

Fonte: Il Sole 24 Ore