Sora il modello di generazione video di OpenAi arriva in Europa. Annunciato anche Gpt-4.5

Sora il modello di generazione video di OpenAi arriva in Europa. Annunciato anche Gpt-4.5

E poi c’è GPT-4.5

OpenAI ha annunciato ieri sera il rilascio una preview di ricerca di GPT-4.5 – ad oggi il modello più ampio ed efficiente per le conversazioni. Il modello oltre a essere il più potente promette di avere un tasso inferiore di “allucinazioni”, un problema comune in cui i modelli linguistici di grandi dimensioni generano informazioni false. Con il 37,1%, il tasso di allucinazioni di GPT-4.5 si confronta con il 61,8% mostrato da GPT-4o e il 44% mostrato dal modello di ragionamento o1. GPT‑4.5, scrivono, non pensa prima di rispondere, il che rende i suoi punti di forza particolarmente diversi dai modelli di ragionamento come OpenAI o1. Rispetto a OpenAI o1 e OpenAI o3‑mini, GPT‑4.5 è un modello più generico e intrinsecamente più intelligente.

Gli utenti di ChatGPT Pro potranno selezionare GPT‑4.5 nel selettore modello su Web, dispositivi mobili e desktop. Ha accesso alle informazioni più aggiornate con la ricerca, supporta il caricamento di file e immagini e può usare canvas per lavorare su scrittura e codice. Tuttavia, GPT‑4.5 al momento non supporta funzionalità multimodali come Voice Mode, video e condivisione dello schermo in ChatGPT. In futuro, lavoreremo per semplificare l’esperienza utente in modo che l’IA “funzioni e basta” per te.

Cosa dicono i test?

Miglioramento dell’EQ e delle conoscenze: ciò che distingue GPT-4.5 semberebbe la sua capacità di intrattenere conversazioni piacevoli, intuitive e naturalmente fluide. Comprende meglio le sfumature e il contesto, portando a interazioni che sembrano maggiormente umane e orientate alla collaborazione. Ha una conoscenza del mondo più ampia e approfondita, il che lo rende più consapevole e meno incline ad “allucinazioni” rispetto ai modelli precedenti. E po OpenAi scrive che sono migliorate le capacità linguistiche: GPT-4.5 offre anche prestazioni superiori rispetto a 4o ed è all’avanguardia per i modelli non basati sul ragionamento nei benchmark (MMLU) che valutano la comprensione e la competenza multilingue dei modelli.

Loading…

Fonte: Il Sole 24 Ore