> La stima di 10^23 FLOPS, come qualcuno ha capito, รจ il conto totale dei FLOPS > necessari per allenare GPT-3.
trovato :) Qui (pag.6) spiega tutto: https://arxiv.org/pdf/2104.10350.pdf N.processori: 10000 Tipo processore: NVIDIA V100 Consumo singolo: 300W Performance singola media: 24,6 TFLOPS/s Training time: 14,8 giorni Totale potenza di calcolo: 3.14E+23 FLOPS (= 10000 * 24,6 * 86400 * 14,8) Totale consumo: 1287 MWh Antonio _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa