On gio, 2023-04-06 at 09:13 +0200, Stefano Zacchiroli wrote: > Grazie per la segnalazione. Osservo che questo passaggio: > > On Wed, Apr 05, 2023 at 02:09:26PM +0000, Daniela Tafani wrote: > > The upshot is that in just under a month, there were three recorded > > incidences of employees leaking sensitive information via > > ChatGPT. Since ChatGPT retains user input data to further train > > itself, these trade secrets from Samsung are now effectively in the > > hands of OpenAI, the company behind the AI service. > > smentisce alcuni delle ipotesi che sono circolate qui in lista nei > giorni scorsi, sul fatto che ChatGPT *non* usasse gli input per il > (re)training futuro. (Personalmente lo trovo poco sorprendente: non si > capisce perché dovrebbero rinunciare ad utilizzare dati "gentilmente > offerti" dagli utenti del servizio...)
Pur senza avere certezze, non credo che sia possibile effettuare un retraining incrementale di un LLM. Penso piuttosto che vengano "riprogrammati" filtraggi" digitali od umani (sfruttati) per modificare/censurare le risposte di GPT-3 in fase di input o dopo l'output. Nessun retraining. GTP continua, come tutti gli LLC a sparare output cinofallici (come direbbe Flora) per sua natura e progetto. JM2EC. Marco > A presto
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa