Intel rilancia la sfida a Nvidia: con Gaudi 3 arriva il nuovo chip per spingere la Gen AI dentro le imprese

Portare prestazioni, standard aperti, sistemi scalabili e ampie possibilità di scelta per applicare l’intelligenza artificiale generativa nei processi di classe enterprise: è di fatto il mantra di un po’ tutte le aziende tecnologiche che vogliono salire sul treno della Gen AI rivolta al mondo delle imprese e lo ha fatto proprio anche Intel, più che mai chiamata a dare risposte di sostanza agli annunci a getto di continuo di Nividia. La sfida per la supremazia nei chip destinati a elaborare i dati macinati dagli algoritmi e ad allenare i modelli di linguaggi di grande formato è entrata nel vivo e la casa di Santa Clara ha colto l’occasione dell’evento Vision 2024, tenutosi nei giorni scorsi a Phoenix, in Arizona, per battere a sua volta un nuovo colpo. Lo scenario in cui i vertici della compagnia hanno posizionato e raccontato la principale novità di prodotto, l’acceleratore AI Gaudi 3, è il seguente: nel 2023, come recita una ricerca condotta da cnvrg.io, una sussidiaria di Intel specializzata nel campo dei modelli LLM, solo il 10% delle imprese su scala internazionale ha portato in produzione con successo progetti di AI generativa. C’è dunque spazio per entrare in un mercato che ha potenzialità di sviluppo enormi e la strada che ha deciso di seguire Intel, come ha ricordato nel suo intervento anche il Ceo Pat Gelsinger, è per l’appunto quella di portare l’intelligenza artificiale in ogni parte dell’azienda, dai personal computer al data center fino all’edge, aiutando le imprese a passare dalla fase pilota dei progetti di Gen AI alla messa in produzione degli stessi.

La sfida (impari) ad Nvidia

L’obiettivo, non dichiarato ma evidente, è sottrarre quote di mercato a chi oggi in ambito enterprise la fa da padrone incontrastato per quanto riguarda le tecnologie del silicio, e cioè Nvidia, che secondo varie stime cattura in questo momento oltre l’80% delle vendite dei chip AI grazie alle sue GPU di fascia alta adottate dai grandi cloud provider e dai produttori di infrastrutture hardware (server e super computer) per l’intelligenza artificiale. Il punto chiave della questione, secondo vari analisti, è quanto le rivali del gigante californiano – Intel e AMD (la cui unità grafica per data center MI300X lanciata lo scorso anno annovera fra i suoi clienti Meta e Microsoft) – possano inserirsi in questa partita facendo leva su proposte dai costi più economici e dalle prestazioni non troppo lontane da quelle che promettono le nuove GPU B100 e B200 targate Nvidia, in arrivo per la fine dell’anno. La sfida, bene precisarlo, non si gioca però (solo) sul fronte delle pure prestazioni, ma in una logica di ecosistema. Se Nvidia ha costruito le proprie fortune nel campo dei semiconduttori per l’AI mettendo a disposizione di chi lavora con l’intelligenza artificiale una potente suite di software proprietari (denominata CUDA) che facilita l’accesso a tutte le caratteristiche hardware di una GPU, Intel sta collaborando con diversi giganti dell’industria tech – i nomi sono quelli Google, Qualcomm e Arm – per costruire piattaforme aperte che lascino totale flessibilità alle aziende di software nella scelta dell’architettura di chip più indicata per le proprie esigenze.

Il nuovo chip AI e il plus dei consumi energetici

Due, fra le tante, le peculiarità che contraddistinguono il nuovo acceleratore AI Gaudi 3. La prima, come si legge in una nota, è legata al fatto che il chip a 5 nanometri in questione alimenterà i sistemi AI con un potenziale di decine di migliaia di acceleratori collegati tramite tecnologia Ethernet, promettendo una potenza di calcolo quattro volte superiore per BFloat16 (formato numerico a virgola mobile che occupa 16 bit nella memoria del computer) e un’ampiezza di banda della memoria superiore di una volta e mezza rispetto al suo predecessore. Un salto in avanti significativo, quindi, nella capacità di addestrare i modelli LLM (il prodotto è stato testato su Llama di Meta e l’open source Falcon ed è pronto a operare con Stable Diffusion o Whisper di OpenAI per il riconoscimento vocale) necessari per implementare applicazioni di intelligenza artificiale generativa su larga scala. L’altro plus di cui Gaudi 3 è accreditato è l’efficienza energetica, più che doppia secondo quanto affermano i responsabili di Intel, della GPU H100 di Nvidia. E non solo. Rispetto al chip concorrente, il nuovo acceleratore promette un “time to train” mediamente più veloce del 50% nell’esecuzione dei processi di AI (il dato si riferisce ai modelli Llama2 con parametri 7B e 13B e al modello GPT-3 con parametri 175B) e un throughput di inferenza superiore in media del 50% in termini di prestazioni e del 40% in termini di efficienza (per i parametri Llama 7B e 70B e i parametri Falcon 180B). Un ultimo pregio dichiarato di Gaudi 3, infine, è il fatto di mettere a disposizione un software aperto e reti Ethernet standard, così da rendere più semplice alle aziende la possibilità di scalare in modo flessibile da un singolo nodo a configurazioni cluster, super-cluster e mega-cluster con migliaia di nodi. La sua disponibilità per i produttori Oem, fra cui Dell Technologies, Hewlett Packard Enterprise e Lenovo, e per i partner (fra cui colossi tech come IBM e Bosch, uno dei principali provider di data center asiatici come l’indiana CtrlS e specialisti della computer vision come Landing AI e Roboflow) è fissata entro la fine di questo secondo trimestre. Intel ci crede, convinta che si tratti di “un’offerta forte” e che la partita per vincere nel business dei chip AI sia appena iniziata. E la mossa di voler aprire una nuova fabbrica in Ohio fra il 2027 e il 2028 per produrre processori di intelligenza artificiale destinati anche ad aziende esterne conferma senza dubbio questa visione.

Fonte: Il Sole 24 Ore