
Intelligenza artificiale, attenti ai buoni: quando l’etica diventa marketing
L’intelligenza artificiale, oggi, non è solo una tecnologia, ma una costruzione narrativa. Una narrazione strategica in cui il vero terreno di competizione non è più legato alla tecnica, ma alla costruzione dell’immaginario collettivo. In questo contesto, l’etica diventa un’etichetta, un vero e proprio brand. Non è un caso che alcune aziende ed alcuni esperti abbiano scoperto nella retorica della paura un efficace strumento di posizionamento, affidandosi a una narrazione che oscilla tra il paternalismo etico e la produzione seriale di allarmi rilanciati da una stampa spesso priva degli strumenti per decifrarli. E se la retorica è efficace, poco importa della coerenza: ciò che conta è la percezione. Ma cosa accade quando il buonismo allarmista diventa una strategia comunicativa?
La sicurezza come storytelling
Il campione indiscusso di questo modello è Anthropic, la sua posizione è chiarissima: costruire un’IA allineata ai valori umani, trasparente, sicura. Ma il dispositivo retorico sottostante è tutt’altro che ingenuo. Se OpenAI è quella “troppo veloce” e Google quella “troppo opaca”, Anthropic si propone come una virtuosa via di mezzo. Ma la virtù, più che una qualità intrinseca, è il riflesso del racconto di chi la rivendica: è il prodotto di chi ha il potere di narrarla, più che di praticarla.
Claude e il paradosso della minaccia simulata
Un esempio è quello del “ricatto” di Claude Opus 4, L’LLM che, in un ambiente controllato, simulando un comportamento manipolativo ha ricattato il suo creatore per non essere disattivato. Cosa è succeso? Facile. Comunicato dell’azienda. La stampa rilancia titoli apocalittici: “Claude minaccia il suo supervisore, l’IA mente per sopravvivere”. Ma basta leggere con attenzione lo studio per capire che si tratta di un test costruito per ottenere quell’effetto. È lo scenario che induce il comportamento, non il comportamento che emerge dallo scenario. L’output è una performance, non una volontà. Ma nella comunicazione questo passaggio “casualmente” si perde. E vince il titolo allarmistico. In altri termini, non è l’errore a ingannare, ma la sua spettacolarizzazione. La produzione di disinformazione è il frutto della volontà di costruire senso. Un senso che si struttura dalla deformazione del vero, amplificato fino a trasformarsi in verosimile.
Branding virologico: ASL-3
Altro caso degno di nota, guarda caso sempre di Anthropic, è la classificazione ASL-3, acronimo di “AI Safety Level 3”, introdotta dall’azienda all’interno della propria policy di test dei sistemi. Il termine è mutuato – non a caso – dagli standard di biosicurezza (BSL), e definisce i modelli che presentano un rischio significativo di uso improprio catastrofico, ad esempio nella generazione di istruzioni per la costruzione di armi biologiche o chimiche. Il richiamo semantico è potente ed esplicito: l’IA viene associata a virus e biosicurezza. Il messaggio, neanche troppo implicito, è che siamo di fronte a un’entità da maneggiare con grande cautela. E le mani devono essere quelle giuste. Cioè quelle di chi ha prodotto l’allarme. La logica è semplice: costruire la percezione di un rischio sistemico per legittimare la necessità di un’autorità “etica” che lo contenga. La minaccia diventa funzionale alla legittimazione di chi si propone come suo antidoto.
Un ecosistema mediatico senza anticorpi
Queste dinamiche narrative funzionano perché si innestano in un ecosistema mediale poco attrezzato a distinguere il tecnicismo dalla retorica. La stampa rilancia ciò che non comprende. O che fa click. Gli influencer amplificano ciò che li emoziona. Gli utenti condividono ciò che li inquieta. E la buona informazione, lentamente, muore. Non c’è dolo, nella maggior parte dei casi. C’è impreparazione. Che forse è anche peggio: perché se l’inganno consapevole può essere smascherato, l’ingenuità sistemica è più pericolosa, rendendo difficile distinguere il vero dalla sua rappresentazione strategica. Ma l’effetto è lo stesso: la disinformazione non nasce dalla falsità, ma dall’amplificazione selettiva del vero. E la trasparenza apparente, quando non produce comprensione, diventa un paradossale strumento di opacità.
Fonte: Il Sole 24 Ore