On Thu, Apr 06, 2023 at 10:14:37AM +0200, Marco A. Calamari wrote:
> Pur senza avere certezze, non credo che sia possibile effettuare un retraining
> incrementale di un LLM.

Non conosco il caso specifico di ChatGPT, ma conosco abbastanza bene
quello dei large language models (LLMs) per il solo codice sorgente, dei
quali ChatGPT è un sovrainsieme.

Nello stato dell'arte nessuno fa retraining incrementale di LLM per il
codice, anche se è tecnicamente fattibile, perché è troppo costoso in
relazione a quanto ci si guadagna in termini di miglioramento dei
risultati. Ciò che si fa invece è periodicamente rifare l'addresstamento
di tutto il modello da zero, solitamente su dataset che nel frattempo
sono molto aumentati di volume (e potenzialmente qualità), e usando
pipeline di addestramento che sono anch'esse evolute rispetto alla
generazione precedente del LLM.

Da un punto di vista di politiche pubbliche, però, trovo che sia
assolutamente irrilevante se il (re)training di ChatGPT sia incrementale
o rifatto ogni volta a partire da zero. Il punto importante è che OpenAI
può tecnicamente stoccare e utilizzare in futuro gli input degli utenti
e quindi molto probabilmente lo farà --- nel modo tecnico che trova più
adeguato ai bisogni dell'azienda e fino a quando qualcuno, ad esempio un
regolatore pubblico, non impedirà loro di farlo.

Saluti
-- 
Stefano Zacchiroli . z...@upsilon.cc . https://upsilon.cc/zack  _. ^ ._
Full professor of Computer Science              o     o   o     \/|V|\/
Télécom Paris, Polytechnic Institute of Paris     o     o o    </>   <\>
Co-founder & CTO Software Heritage            o o o     o       /\|^|/\
https://twitter.com/zacchiro . https://mastodon.xyz/@zacchiro   '" V "'
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to