La Svizzera lancia Apertus, un modello AI open source, trasparente e multilingue

La Svizzera lancia Apertus, un modello AI open source, trasparente e multilingue

Durante lo scorso luglio il Politecnico federale di Zurigo, la Scuola Politecnica Federale di Losanna e Swiss National Supercomputing Centre hanno annunciato la loro collaborazione per realizzare un nuovo LLM ovvero un modello linguistico su larga scala: Apertus. Il modello è ora a disposizione di organizzazioni e sviluppatori per lo sviluppo di chatbot, strumenti educativi e applicazioni di traduzione basate sull’intelligenza artificiale.

Il suo nome, ovviamente, non è casuale poiché deriva dal termine latino che significa “aperto” e riflette appunto la sua caratteristica distintiva: la trasparenza e il libero accesso, a chiunque, di poter conoscere la sua architettura, i dati di addestramento e la documentazione di sviluppo.; questo significa che consente a ricercatori, professionisti del settore ma anche appassionati di AI di personalizzarlo in base alle proprie esigenze e obiettivi, e di analizzarne ogni fase evolutiva, a differenza dei modelli tradizionali già noti che solitamente limitano l’accesso a componenti selezionate.

“Apertus è stato creato per il bene pubblico. È uno dei pochi LLM su questa scala completamente aperto ed è il primo del suo genere a incarnare il multilinguismo, la trasparenza e la conformità come principi fondamentali di progettazione” afferma in merito Imanol Schlag, responsabile tecnico del progetto LLM e ricercatore scientifico presso l’ETH di Zurigo mentre è Martin Jaggi, professore di Machine Learning all’EPFL e membro del comitato direttivo dell’Iniziativa svizzera per l’IA, ad aggiungere “Il nostro fine con la pubblicazione di questa prima versione è quello di offrire un modello di riferimento per lo sviluppo di un’IA affidabile, sovrana e inclusiva”.

Apertus è accessibile gratuitamente tramite il partner Swisscom oppure scaricabile dalla piattaforma Hugging Face per essere implementato in progetti di terze parti ed è disponibile nella versione da 8 miliardi di parametri, più indicata per un uso personale, e 70 miliardi di parametri, entrambe distribuite con licenza permissiva open source. Addestrato su 15 trilioni di token e più di 1.000 lingue, il modello include anche idiomi solitamente trascurati come il tedesco svizzero o il romancio per esempio, ad oggi mai sottorappresentate nei modelli LLM. Inoltre come annunciato da Swisscom, il modello sarà costantemente aggiornato dal gruppo responsabile dello sviluppo, in cui sono presenti all’appello ingegneri specializzati e numerosi ricercatori del CSCS, EPFL ed ETH.

Fonte: Il Sole 24 Ore