Claude: Anthropic cambia le regole sui dati degli utenti

Claude: Anthropic cambia le regole sui dati degli utenti

Anthropic sta mettendo tutti gli utenti del chatbot Claude davanti a una scelta cruciale: entro il 28 settembre dovranno decidere se permettere all’azienda di utilizzare le loro conversazioni per addestrare i modelli di intelligenza artificiale. Un cambiamento radicale che segna una svolta nella strategia della compagnia fondata dagli ex-OpenAI e che arriva dopo che ChatGPT offre questa possibilità di opt-out dal maggio 2023.

La rivoluzione delle policy

Il cambio di rotta è netto. Fino a ieri, Anthropic non utilizzava i dati delle conversazioni dei consumatori per l’addestramento dei suoi modelli, se non su base volontaria tramite feedback degli utenti. Ora invece l’azienda vuole utilizzare le chat e le sessioni di programmazione, estendendo la conservazione dei dati a cinque anni per chi non si oppone. In precedenza, input e conversazioni venivano cancellati automaticamente dai server entro 30 giorni, salvo obblighi legali o violazioni che potevano estendere la conservazione fino a due anni.

La fame di dati dell’IA

Anthropic inquadra la modifica come una questione di scelta dell’utente: chi non si oppone “aiuterà a migliorare la sicurezza del modello” e contribuirà “a far migliorare i futuri modelli Claude in competenze come programmazione, analisi e ragionamento”.

In sostanza: aiutaci ad aiutarti. Ma gli intenti, seppur dipinti con uno smalto dai toni altruisti e nobili, sono di carattere pratico. Come ogni altra azienda di intelligenza artificiale, Anthropic ha disperatamente bisogno di dati – più di quanto non le importi della reputazione del brand. L’addestramento richiede enormi quantità di conversazioni di alta qualità, e milioni di interazioni con Claude rappresentano il contenuto ideale per rafforzare la posizione competitiva contro OpenAI e Google.

Fonte: Il Sole 24 Ore