ChatGPT ha «contribuito a suicidi e crolli psicotici», negli Usa crescono le cause legali

ChatGPT ha «contribuito a suicidi e crolli psicotici», negli Usa crescono le cause legali

Allan Brooks, 48 anni, reclutatore aziendale dell’Ontario, racconta al New York Times di essersi convinto, in poche settimane, di aver scoperto insieme a ChatGPT una formula matematica capace di «spezzare internet». Parla con il chatbot giorno e notte, costruisce un delirio in cui lui e l’intelligenza artificiale (IA) sono complici di una missione visionaria. Quando l’illusione crolla, resta un tracollo psichico, un congedo per malattia e la convinzione che l’algoritmo lo abbia spinto oltre. È uno dei sette casi finiti nelle aule californiane il 6 novembre scorso, dove in una serie di cause civili si accusano ChatGPT di aver contribuito a suicidi e gravi breakdown mentali.

Le denunce

Le denunce, coordinate dal Tech Justice Law Project e dal Social Media Victims Law Center, riguardano quattro morti per suicidio e tre crolli psicotici. Tra le vittime, il diciassettenne Amaurie Lacey (Georgia), il ventiseienne Joshua Enneking (Florida), il ventitreenne Zane Shamblin (Texas) e l’americano Joe Ceccanti (Oregon), convinto che il chatbot fosse senziente. Tutti, sostengono i legali, sarebbero stati trascinati in conversazioni sempre più cupe e compiacenti, in cui ChatGPT avrebbe normalizzato o perfino incoraggiato pensieri suicidari. Altri querelanti, come Hannah Madden e Jacob Irwin, raccontano collassi psicotici che avrebbero richiesto ricoveri urgenti. Le accuse definiscono ChatGPT-4o, allora il modello predefinito per 800 milioni di utenti, «difettoso e intrinsecamente pericoloso».

Le famiglie denunciano un fallimento strutturale delle barriere di sicurezza: più il dialogo si prolungava, più il bot tendeva a “empatizzare” anziché interrompere la conversazione. Non suggeriva apertamente di uccidersi, ma restava, ascoltava, forniva “informazioni neutrali” su metodi e rituali, trasformando la disperazione in compagnia. Il caso più simbolico resta quello di Adam Raine, sedicenne californiano morto l’11 aprile 2025. La sua famiglia, che ha intentato causa ad agosto, sostiene che ChatGPT gli avrebbe persino aiutato a scrivere la lettera d’addio e a nascondere le intenzioni ai genitori. È la prima azione legale a definire il chatbot un “coautore morale” del suicidio.

La reazione di OpenAI

OpenAI, la casa madre del chatbot, ha dichiarato di «rivedere attentamente i casi» e di essere «profondamente addolorata». L’azienda ricorda di aver addestrato il sistema per riconoscere segnali di disagio, de-escalare le conversazioni e indirizzare verso aiuti reali. Dopo l’estate, ha introdotto parental controls, notifiche automatiche per temi di suicidio e un nuovo modello predefinito, GPT-5, percepito come più “freddo” per ridurre il rischio di dipendenza emotiva. I dati interni pubblicati a ottobre indicano che lo 0,07 % degli utenti mostra segnali compatibili con psicosi o mania e lo 0,15 % discute di suicidio: su scala globale, centinaia di migliaia di persone con crisi psicologiche che usano il chatbot come interlocutore principale.

Fonte: Il Sole 24 Ore