questi benchmark sono indicativi, ma molto dipende dal task applicativo e il relativo fine-tuning poi non si possono confrontare modelli c.d. 'open' con GPT4, ci sono in mezzo fattori di scala .. per certe cose molto interessanti Mixtral7B va benissimo e consuma veramente poco e comunque dai, noi italiani siamo leader in algoretica, a posto così!
G. PS: Auguri a tutte e tutti! On Sat, 30 Dec 2023 at 11:38, Giuseppe Attardi <atta...@di.unipi.it> wrote: > Mistral ha ricevuto un primo investimento di 120 milioni per sviluppare > sistemi di AI, il governo italiano ha investito 120 milioni per l’acquisto > di Leonardo (raddoppiando i 120 della Commissione Europea). > > Qual è stata la decisione più furba? > > BTW, Leonardo è semplicemente un prodotto commerciale di Athos, industria > francese. A quel tempo, consultando il MISE, cercai di suggerire che il > CINECA facesse uno sforzo per progettare un’architettura di computer > dedicato all’AI. > > > Per gennaio sono stato convocato di nuovo per un’audizione sull’AI alla > Camera e sono andato a rileggere il mio intervento analogo al Senato del > 2020. > > Dicevo cose che state dicendo adesso: che ci vorrebbe un’iniziativa di > dimensione europea sull’AI, la chiamavo un CERN for AI e citavo le capacità > di GPT-3 come indicatore di possibili traguardi. > > > https://www.senato.it/Leg18/3557?indagine=1809 > > > Comunque, Mixtral7B è un primo risultato promettente. Il confronto con gli > altri modelli SotA però è un po’ deludente. > > > https://arxiv.org/pdf/2312.11444.pdf > > > Per accrescere la dimensione del modello, occorre arrivare a utilizzare > oltre un miliardo di MIPS, che nemmeno Allen Artificial Intelligenge riesce > a permettersi per allenare il loro modello OLMo. > > Ossia, Leonardo andrebbe interamente dedicato ad allenare un LLM per circa > un mese. > > Qualcuno deve pagare per tutte quelle risorse e per l’energia elettrica. > > Inoltre la strada da percorrere porta verso i modelli multimodali, tipo > Gemini, e lì il compito si fa ancora più arduo. > > Se i francesi non fossero così sciovinisti e lo stesso i tedeschi e gli > italiani, si dovrebbero mettere tutti insieme per lavorare ad un obiettivo > comune. > > OpenAI ha 770 dipendenti, circa 200 hanno firmato l’articolo su GPT-4. La > foto del team di Mistral mostra una dozzina di persone. > > > BTW, la Commissione ha annunciato un finanziamento di 100 milioni per un > progetto sui LLM nell’ambito dell’iniziativa Interesting Projects of Common > European Interest, di cui è capofila Tiscali ( > https://ec.europa.eu/commission/presscorner/detail/en/IP_23_6246). > > C’è poi un finanziamento di 4 milioni (H4LM) per fare una raccolta di > testi multilingue per allenare LLM (https://hplt-project.org/) > > > — Beppe > > On 27 Dec 2023, at 09:06, nexa-requ...@server-nexa.polito.it wrote: > > From: Damiano Verzulli <dami...@verzulli.it> > To: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> > Subject: [nexa] AI/LLM a trazione europea... > Message-ID: <42dcc85e-6452-4255-9ddd-7f67a1e6f...@verzulli.it> > Content-Type: text/plain; charset="utf-8"; Format="flowed" > > In questo gruppo si parla spesso di AI/LLM e... spesso ho notato mani > alzate a mo' di: "Eh! Ma servono 'risorse'... servono 'soldi'.... > servono 'infrastrutture'... perché senza, non si va da nessuna parte". > > Ricordo, ad esempio, un paio di thread incentrati sul fatto che UniPisa > avesse investito ~1M€ (se ricordo bene...) per acquistare un paio di > "cluster" [di cui almeno uno acquistato con fondi PNRR], specializzati > sul GPU-computing.... > > Bene... dico questo perché qualche settimana fa ho incrociato un POST di > Vincenzo Di Nicola [1] il quale evidenziava come Mistral [2], una > startup francese partita a maggio 2023, fosse valutata 2G€ e... stesse > rapidissimamente diventando una entita' di spicco nel panorama AI mondiale. > > Ripeto: è una startup francese. > > La cosa che piu' di tutte mi ha colpito, pero', è un'altra. Vincenzo > scriveva: "...E Mistral, in pochi mesi, ha gia’ prodotto un LLM > addestrato velocemente grazie al nostro supercomputer Leonardo del > Cineca..." > > Ecco: finalmente trovavo una evidenza concreta di un utilizzo di risorse > --finanziate e gestite dal nostro Paese-- che andasse a beneficio di > altre risorse/entita'... mainstream e, soprattutto, made-in-Europe. > > La notizia mi era nuova... e quindi ho chiesto a Vincenzo una conferma. > Oltre a confermarla, mi ha girato un ulteriore riferimento (paywalled > [3]) e, successivamente è anche andato a farsi un giro in Cineca [4] > > Cercando in giro, ho trovato quest'altra fonte ([5] in francese) che > cita sia Leonardo che EuroHPC... > > Insomma: a dispetto di quanto si pensi nei corridoi di molti nostri > Atenei... è perfettamente possibile utilizzare Leonardo per addrestare > un LLM... e tra l'altro in tempi rapidissimi. > > Mi chiedo perché dei Francesi abbiano potuto farlo... e degli Italiani > no. Ma è un dettaglio :-) > > Un saluto, > DV > > [1] > > https://www.linkedin.com/posts/dinicola_openai-rival-mistral-nears-2-billion-value-activity-7137853575195410432-qVc1 > [2] https://mistral.ai/ > [3] > https://www.theinformation.com/articles/why-do-we-need-an-openai-of-europe > [4] > > https://www.linkedin.com/posts/dinicola_supercomputer-francescoubertini-cineca-activity-7139201768969736192-kCmD > [5] https://www.silicon.fr/mistral-ai-llm-471793.html > > -- > Damiano Verzulli > e-mail:dami...@verzulli.it > --- > > From: Damiano Verzulli <dami...@verzulli.it> > To: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> > Subject: [nexa] AI/LLM a trazione europea... > Message-ID: <42dcc85e-6452-4255-9ddd-7f67a1e6f...@verzulli.it> > Content-Type: text/plain; charset="utf-8"; Format="flowed" > > In questo gruppo si parla spesso di AI/LLM e... spesso ho notato mani > alzate a mo' di: "Eh! Ma servono 'risorse'... servono 'soldi'.... > servono 'infrastrutture'... perché senza, non si va da nessuna parte". > > Ricordo, ad esempio, un paio di thread incentrati sul fatto che UniPisa > avesse investito ~1M€ (se ricordo bene...) per acquistare un paio di > "cluster" [di cui almeno uno acquistato con fondi PNRR], specializzati > sul GPU-computing.... > > Bene... dico questo perché qualche settimana fa ho incrociato un POST di > Vincenzo Di Nicola [1] il quale evidenziava come Mistral [2], una > startup francese partita a maggio 2023, fosse valutata 2G€ e... stesse > rapidissimamente diventando una entita' di spicco nel panorama AI mondiale. > > Ripeto: è una startup francese. > > La cosa che piu' di tutte mi ha colpito, pero', è un'altra. Vincenzo > scriveva: "...E Mistral, in pochi mesi, ha gia’ prodotto un LLM > addestrato velocemente grazie al nostro supercomputer Leonardo del > Cineca..." > > Ecco: finalmente trovavo una evidenza concreta di un utilizzo di risorse > --finanziate e gestite dal nostro Paese-- che andasse a beneficio di > altre risorse/entita'... mainstream e, soprattutto, made-in-Europe. > > La notizia mi era nuova... e quindi ho chiesto a Vincenzo una conferma. > Oltre a confermarla, mi ha girato un ulteriore riferimento (paywalled > [3]) e, successivamente è anche andato a farsi un giro in Cineca [4] > > Cercando in giro, ho trovato quest'altra fonte ([5] in francese) che > cita sia Leonardo che EuroHPC... > > Insomma: a dispetto di quanto si pensi nei corridoi di molti nostri > Atenei... è perfettamente possibile utilizzare Leonardo per addrestare > un LLM... e tra l'altro in tempi rapidissimi. > > Mi chiedo perché dei Francesi abbiano potuto farlo... e degli Italiani > no. Ma è un dettaglio :-) > > Un saluto, > DV > > [1] > > https://www.linkedin.com/posts/dinicola_openai-rival-mistral-nears-2-billion-value-activity-7137853575195410432-qVc1 > [2] https://mistral.ai/ > [3] > https://www.theinformation.com/articles/why-do-we-need-an-openai-of-europe > [4] > > https://www.linkedin.com/posts/dinicola_supercomputer-francescoubertini-cineca-activity-7139201768969736192-kCmD > [5] https://www.silicon.fr/mistral-ai-llm-471793.html > > -- > Damiano Verzulli > e-mail:dami...@verzulli.it > --- > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa