> La stima di 10^23 FLOPS, come qualcuno ha capito, รจ il conto totale dei FLOPS 
> necessari per allenare GPT-3.

trovato :)
Qui (pag.6) spiega tutto: https://arxiv.org/pdf/2104.10350.pdf

N.processori: 10000
Tipo processore: NVIDIA V100
Consumo singolo: 300W
Performance singola media: 24,6 TFLOPS/s
Training time: 14,8 giorni
Totale potenza di calcolo: 3.14E+23 FLOPS (= 10000 * 24,6 * 86400 * 14,8) 
Totale consumo: 1287 MWh

Antonio
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to