Scusate se, rientrando, ritorno su questo tema per fare alcuni chiarimenti.
La stima di 10^23 FLOPS, come qualcuno ha capito, è il conto totale dei FLOPS necessari per allenare GPT-3. Si tratta di stime, riportate ad esempio su https://www.hyro.ai/glossary/gpt-3/#:~:text=To%20be%20exact%2C%20GPT%2D3,amount%20of%20time%20is%20unimaginable., e riguardano le risorse necessarie per UN SINGOLO run. I costi complessivi delle risorse sono stimati in diverse centinaia di milioni di $, in quanto occorrono diversi run, per non parlare dei modelli successivi, GPT-3.5 (ChatGPT) e GPT-4. E ovviamente le macchine adesso non sono ferme, ma stanno lavorando al prossimo modello, oltre che a fornire accesso al servizio (a pagamento). Prosegue sotto. > On 19 Jul 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote: > > Date: Wed, 19 Jul 2023 16:07:06 +0200 > From: Damiano Verzulli <dami...@verzulli.it <mailto:dami...@verzulli.it>> > To: nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > Subject: [nexa] LLM (di serie "A"): possibili in Italia/Europa? [Era: > nexa Digest, Vol 171, Issue 53] > Message-ID: <737ccbae-8b9c-3adb-542d-259c837ce...@verzulli.it > <mailto:737ccbae-8b9c-3adb-542d-259c837ce...@verzulli.it>> > Content-Type: text/plain; charset="utf-8"; Format="flowed" > > Il 19/07/23 13:30, Giuseppe Attardi ha scritto: >> [...] >> Le risorse di calcolo per costruire GPT-3.5 sono stimate in 10^23 >> FLOPS per un costo di centinaia di milioni di $ >> Meta, per rilasciare i suoi modelli, ha costruito un Research >> Supercluster con 10.000 GPU Nvidia, che secondo Yann LeCun è già in >> overbooking. > > > Leggo da una fonte terza (Wikipedia) che "Leonardo" [1] ormai ha quasi > un anno, è costato 240M€ e di picco fa 250 petaFLOPS (aka: ~10^17), > anche grazie ai suoi 13.824 GPU-core. La questione non è l’esistenza di cluster di server adatti allo sviluppo di LLM: ci sono quelli di Azure, che usa OpenAI, quelli di GCP che usa Google, quelli di AWS, quelli di Nvidia. Il Cineca è solo in parte diverso da questi, in quanto circa metà delle risorse sono concesse in uso a progetti selezionati ed approvati dallo stesso Cineca: https://leonardo-supercomputer.cineca.eu/access-leonardo-hpc-resources/ Attualmente la call è chiusa. Personalmente ho avuto approvato un piccolo progetto, che viene messo in esecuzione con priorità bassa rispetto ad altri. Anche Colab di Google mette a disposizione server con TPU per lo svolgimento di piccoli progetti: i miei studenti lo usano, ma si lamentano del fatto che le risorse non bastano, che i run vengono interrotti improvvisamente e vengono a chiedermi di usare altre risorse. Invece mi è stato rifiutato un progetto più grande per produrre un sistema di Neural Machine Translation multilingue, per uso in una collaborazione con la European Broadcasting Corporation. Per sviluppare LLM o AI allo stato dell’arte, i ricercatori di OpenAI, Google, Meta, X.AI e le nuove startup come Converse.AI o Anthropic AI hanno a disposizione un intero cluster. Ossia come se il Cineca mettesse a disposizione quasi tutto Leonardo per UN SINGOLO progetto o gruppo di progetti! E non sono soggetti all’approvazione di terzi. Quindi dovrebbe essere chi finanzia i progetti a mettere a disposizione le risorse per svolgerli, come fa ad esempio la NSF, fornendo crediti di calcolo cloud, per evitare asincronie e valutazioni separate. https://www.nsf.gov/pubs/2021/nsf21058/nsf21058.jsp > > Leggo da altra fonte terza (Top500 [2]) che attualmente (06/2023) > risulta 4° al mondo, come potenza di calcolo. > > Leggo dal sito ufficiale [3] che: > "Leonardo's main goals are [...] The computational power of Leonardo > will boost scientific exellences and industrial strenght across Europe...." > > Non si parla di IA/ML, né si accenna agli LLM. Ma faccio comunque fatica > ad immaginare che queste tonnellate di ferro *NON* possano essere > utilizzate dalla comunita' della ricerca Italiana (...magari, in modo > coordinato con gli altri paesi EU, dove "giocattoli" simili sono > comunque presenti) a questo scopo. Ovviamente non mi aspetto che > parcheggiati davanti al Tecnolopolo ci siano una fila di TAXI, pronti a > scattare all'ordine di Cineca, per "prelevare" i ricercatori in giro per > l'Italia al fine di portarli al Tecnopolo... per conoscere il giocattolo > e iniziare ad usarlo. Come riportato sopra, il Cineca fa le sue call per progetti che utilizzino Leonardo. La gran parte delle risorse vanno ai progetti di fisica alte energie, come si desume dal Rapporto Annuale Cineca 2018. > > Certo: se il dottorando X, o l'assegnista Y (o anche il Ricercatore Z o > il docente K) sentono il bisogno di avere del ferro sul pianerottolo di > fianco al loro studio, in UNIV [come accade in UniPI, ad esempio, con i > sistemi NVIDIA qui discussi, qualche giorno fa]... allora il discorso > cambia... Non so di cosa parli: a UniPI io sono stato responsabile di un server con 4 GPU Nvidia P100 acquistato con fondi comuni di 5 gruppi di ricerca, che è installato nel Green Datacenter di S. Piero a Grado (che ho contribuito a progettare e realizzare), quando Cineca non aveva GPU a disposizione né parlava di ML e AI, ed è usato in condivisione al 100% 24h/365. Tra coloro che usano le mie GPU, ci sono ricercatori del progetto Virgo, che a quel tempo non le trovavano altrove. In generale, ho sempre parlato di un servizio cloud condivisibile con altri ricercatori europei, ma gestito dagli stessi ricercatori del settore, non da altri. Esattamente come il CERN decide da solo quali progetti sviluppare, e magari usa anche le risorse del Cineca, pagandole coi fondi propri. — Beppe PS. Ho avuto un ruolo di consulente del MISE al tempo della decisione di finanziare con 120 milioni € Leonardo, il maggiore finanziamento nazionale di EuroHPC, proprio sostenendo l’importanza di disporre di risorse per AI. > > Un'ultima nota a chiusura: sono cosciente che fra 10^17 e 10^23 c'e' > *MOLTA* differenza (a proposito: qual'e' la fonte di 10^23?). Prima di > preoccuparmi di questo, pero', attenderei di vedere che quei 10^17 > stiano lavorando almeno come 10^16 per un buon periodo di ore/mese. > Dopodiché sarei pronto ad alzare la mano e chiedere qualcosa... di piu' > performante. > > Un saluto, > DV > > > [1] https://en.wikipedia.org/wiki/Leonardo_(supercomputer) > [2] https://www.top500.org/lists/top500/2023/06/ > [3] https://leonardo-supercomputer.cineca.eu/ > > -- > Damiano Verzulli > e-mail: dami...@verzulli.it <mailto:dami...@verzulli.it> > ---
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa