Intelligenza artificiale, attenti ai buoni: quando l’etica diventa marketing

Intelligenza artificiale, attenti ai buoni: quando l’etica diventa marketing

L’intelligenza artificiale, oggi, non è solo una tecnologia, ma una costruzione narrativa. Una narrazione strategica in cui il vero terreno di competizione non è più legato alla tecnica, ma alla costruzione dell’immaginario collettivo. In questo contesto, l’etica diventa un’etichetta, un vero e proprio brand. Non è un caso che alcune aziende ed alcuni esperti abbiano scoperto nella retorica della paura un efficace strumento di posizionamento, affidandosi a una narrazione che oscilla tra il paternalismo etico e la produzione seriale di allarmi rilanciati da una stampa spesso priva degli strumenti per decifrarli. E se la retorica è efficace, poco importa della coerenza: ciò che conta è la percezione. Ma cosa accade quando il buonismo allarmista diventa una strategia comunicativa?

La sicurezza come storytelling

Il campione indiscusso di questo modello è Anthropic, la sua posizione è chiarissima: costruire un’IA allineata ai valori umani, trasparente, sicura. Ma il dispositivo retorico sottostante è tutt’altro che ingenuo. Se OpenAI è quella “troppo veloce” e Google quella “troppo opaca”, Anthropic si propone come una virtuosa via di mezzo. Ma la virtù, più che una qualità intrinseca, è il riflesso del racconto di chi la rivendica: è il prodotto di chi ha il potere di narrarla, più che di praticarla.

Claude e il paradosso della minaccia simulata

Un esempio è quello del “ricatto” di Claude Opus 4, L’LLM che, in un ambiente controllato, simulando un comportamento manipolativo ha ricattato il suo creatore per non essere disattivato. Cosa è succeso? Facile. Comunicato dell’azienda. La stampa rilancia titoli apocalittici: “Claude minaccia il suo supervisore, l’IA mente per sopravvivere”. Ma basta leggere con attenzione lo studio per capire che si tratta di un test costruito per ottenere quell’effetto. È lo scenario che induce il comportamento, non il comportamento che emerge dallo scenario. L’output è una performance, non una volontà. Ma nella comunicazione questo passaggio “casualmente” si perde. E vince il titolo allarmistico. In altri termini, non è l’errore a ingannare, ma la sua spettacolarizzazione. La produzione di disinformazione è il frutto della volontà di costruire senso. Un senso che si struttura dalla deformazione del vero, amplificato fino a trasformarsi in verosimile.

Branding virologico: ASL-3

Altro caso degno di nota, guarda caso sempre di Anthropic, è la classificazione ASL-3, acronimo di “AI Safety Level 3”, introdotta dall’azienda all’interno della propria policy di test dei sistemi. Il termine è mutuato – non a caso – dagli standard di biosicurezza (BSL), e definisce i modelli che presentano un rischio significativo di uso improprio catastrofico, ad esempio nella generazione di istruzioni per la costruzione di armi biologiche o chimiche. Il richiamo semantico è potente ed esplicito: l’IA viene associata a virus e biosicurezza. Il messaggio, neanche troppo implicito, è che siamo di fronte a un’entità da maneggiare con grande cautela. E le mani devono essere quelle giuste. Cioè quelle di chi ha prodotto l’allarme. La logica è semplice: costruire la percezione di un rischio sistemico per legittimare la necessità di un’autorità “etica” che lo contenga. La minaccia diventa funzionale alla legittimazione di chi si propone come suo antidoto.

Fonte: Il Sole 24 Ore