OpenAI lancia GPT-5: più veloce, più intelligente e più umano. Ecco cosa c’è da sapere

OpenAI lancia GPT-5: più veloce, più intelligente e più umano. Ecco cosa c’è da sapere

GPT-5 non mente e non simula e conosce i propri limiti

GPT-5 è stato addestrato per riconoscere quando non può completare un compito, evitare le speculazioni e spiegare meglio i propri limiti. Questo riduce drasticamente i casi di risposte inventate ma convincenti rispetto ai modelli precedenti. I ricercatori hanno spiegato che è stato addestrato per non mentire e non simulare risposte fittizie. In caso di domande potenzialmente ambigue o pericolose, GPT-5 risponde solo con contenuti generali, per ridurre i rischi. È stata inoltre introdotta una nuova funzione: il «reasoning effort parameter», che consente di scegliere quanto il modello debba «ragionare». Si potrà insomma decidere se il modello deve ragionare profondamente, o se può restare più veloce e superficiale (utile per task semplici).

Non è un dottore ma risponde alle domande sulla salute.

GPT-5, sostiene OpenAi precisando che non sostituisce un dottore, è il modello di OpenAI migliore mai realizzato per le domande relative alla salute. È più proattivo nel segnalare potenziali problemi e nel porre domande, e può aiutare a comprendere i risultati, a formulare le domande appropriate da sottoporre agli specialisti e a valutare le opzioni nel momento di prendere decisioni.

E tiene conto di dove sei

GPT-5 offre anche risposte più precise e affidabili e si adatta al contesto, al livello di conoscenza e alla posizione geografica dell’utente – fornendo così risposte più sicure e utili in un’ampia gamma di scenari.

Obiettivo: ottenere un modello non ingannevole.

Lato sicurezza, un obiettivo che si sono prefissati è quello di ottenere un modello non ingannevole. «Questo è cruciale per la sicurezza – ha spiegato Nick Turley, capo del prodotto di ChatGPT – vogliamo che il modello non menta agli utenti, sia per motivi etici sia per garantire un’esperienza utente di qualità: le persone devono potersi fidare del sistema.» Per risolvere questo, hanno addestrato GPT-5 per essere onesto. Un altro aspetto importante è evitare che gli utenti possano abusare del modello per fare del male. «In passato – ha spiegato – usavamo un sistema binario: se un prompt era considerato sicuro, il modello rispondeva. Se era pericoloso, rifiutava. Con GPT-5 usiamo un approccio chiamato “safe completions”. Il modello fornisce risposte utili, ma entro i limiti della sicurezza. Nelle domande a doppio uso, GPT-5 si limita a informazioni generali e sicure, che non possono essere usate per nuocere.» Inoltre, hanno condotto oltre 5.000 ore di test con red team esterni per assicurarsi che il sistema sia robusto contro l’abuso.

Perché ChatGpt5 è fondamentale per Sam Altman?

La sua uscita arriva mentre organizzazioni come BNY Mellon, California State University, Figma, Intercom, Lowe’s, Morgan Stanley, SoftBank, T-Mobile e altre hanno già fornito ai loro dipendenti l’intelligenza artificiale, con 5 milioni di utenti a pagamento che ora utilizzano i prodotti aziendali di ChatGPT, e hanno iniziato a ripensare le loro operazioni sull’API.

Fonte: Il Sole 24 Ore