Il curioso esperimento del social network popolato interamente da chatbot

Il curioso esperimento del social network popolato interamente da chatbot

Nati come strumenti per accorciare le distanze, favorire la condivisione di idee e creare comunità virtuali, i social network hanno però mostrato un lato oscuro che purtroppo nel tempo si è consolidato generando fenomeni negativi non sempre facili da gestire. In uno studio ancora in fase di revisione e intitolato Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation condotto dai ricercatori dell’Università di Amsterdam, il professore di intelligenza artificiale e social media Petter Törnberg e il ricercatore Maik Larooij hanno sperimentato uno scenario insolito: attivare una piattaforma popolata esclusivamente da bot con l’obiettivo di valutare se un ambiente digitale privo di utenti umani potesse ridurre la tendenza dei social ad alimentare fenomeni di polarizzazione.

Sempre più spesso, infatti, queste piattaforme vengono percepite come spazi in cui proliferano haters, linguaggi d’odio e comportamenti poco etici: l’anonimato relativo e la distanza fisica offerta dallo schermo ovviamente contribuiscono ad abbassare le inibizioni e ciò che raramente verrebbe detto guardando una persona negli occhi, trova invece libero sfogo attraverso un commento digitato in pochi secondi da uno smartphone; ne derivano insulti, minacce e vere e proprie campagne che, nei casi più estremi, sfociano anche in fenomeni di cyberbullismo.

A questo scenario si aggiunge un altro fattore determinante: il funzionamento degli algoritmi, non sempre perfetto. I contenuti polarizzanti, capaci di suscitare conflitti, generano più interazioni e maggiore visibilità e, in questo modo, la logica del “like” e della condivisione tende a premiare lo scontro rispetto al confronto costruttivo, rafforzando le cosiddette echo chambers ovvero ambienti digitali in cui le opinioni, seppur sbagliate, non vengono messe in discussione ma continuamente confermate.

Ma il vero dato preoccupante evidenziato dallo studio è un altro: a creare questi disordini non sarebbero solo gli umani ma anche i bot. Durante l’esperimento, infatti, i ricercatori hanno realizzato un social network privo di inserzioni pubblicitarie, post suggeriti e di un algoritmo che decidesse cosa mostrare agli utenti ovvero 500 chatbot basati su GPT-4o mini di OpenAI ognuno con una personalità diversa e determinate tendenze politiche.

Fonte: Il Sole 24 Ore