On Thu, Apr 06, 2023 at 10:14:37AM +0200, Marco A. Calamari wrote: > Pur senza avere certezze, non credo che sia possibile effettuare un retraining > incrementale di un LLM.
Non conosco il caso specifico di ChatGPT, ma conosco abbastanza bene quello dei large language models (LLMs) per il solo codice sorgente, dei quali ChatGPT è un sovrainsieme. Nello stato dell'arte nessuno fa retraining incrementale di LLM per il codice, anche se è tecnicamente fattibile, perché è troppo costoso in relazione a quanto ci si guadagna in termini di miglioramento dei risultati. Ciò che si fa invece è periodicamente rifare l'addresstamento di tutto il modello da zero, solitamente su dataset che nel frattempo sono molto aumentati di volume (e potenzialmente qualità), e usando pipeline di addestramento che sono anch'esse evolute rispetto alla generazione precedente del LLM. Da un punto di vista di politiche pubbliche, però, trovo che sia assolutamente irrilevante se il (re)training di ChatGPT sia incrementale o rifatto ogni volta a partire da zero. Il punto importante è che OpenAI può tecnicamente stoccare e utilizzare in futuro gli input degli utenti e quindi molto probabilmente lo farà --- nel modo tecnico che trova più adeguato ai bisogni dell'azienda e fino a quando qualcuno, ad esempio un regolatore pubblico, non impedirà loro di farlo. Saluti -- Stefano Zacchiroli . z...@upsilon.cc . https://upsilon.cc/zack _. ^ ._ Full professor of Computer Science o o o \/|V|\/ Télécom Paris, Polytechnic Institute of Paris o o o </> <\> Co-founder & CTO Software Heritage o o o o /\|^|/\ https://twitter.com/zacchiro . https://mastodon.xyz/@zacchiro '" V "' _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa