On Fri, Sep 29, 2023 10:24:57 AM +0200, Fabio Alemagna wrote: > L'idea che istruire un modello su dei testi coperti da copyright sia > una violazione del suddetto copyright è altamente opinabile, e il > ragionamento è in realtà abbastanza semplice: se istruirsi su un > testo ne violasse il copyright, saremmo tutti dei criminali.
esatto, grazie. Sono sorpreso che questo argomento non venga fatto piu' spesso, mi pare cruciale. Inoltre, a sostegno di quanto dice Jarvis: > I prefer informed over ignorant AI. ora non trovo il link, ma giorni fa leggevo qualcun altro osservare esplicitamente che se si lasciano addestrare i LLM solo con spazzatura razzista, fascista, sessista, omofoba o altro, poi non ci si puo' lamentare se creano testi razzisti eccetera. Che poi, allargando un attimo il discorso, e' lo stesso problema gigante che abbiamo gia' da vent'anni, il blocco da copyright per gli LLM lo aumenterebbe soltanto: https://stop.zona-m.net/2021/04/free-news-make-extremists/ Soluzioni non ne ho ma fa ridere, tristemente, vedere giornalisti e intellettuali progressisti lamentarsi delle masse becere che credono alla spazzatura online, spiegandogli pazientemente quanto son becere... o combattere la disinformazione su vaccini, cambiamenti climatici, Ucraina eccetera... ma solo in articoli dietro paywall Infine, senza smentire quanto sopra, giusto per completezza: > Di quei testi non c'è fisicamente traccia all'interno dei modelli, > non viene copiato niente. I modelli sono un'opera trasformativa di > quei testi, non derivativa. volendo essere pignoli, questo non e' sempre **completamente vero**, vedi il caso del "knotting", https://www.wired.com/story/fanfiction-omegaverse-sex-trope-artificial-intelligence-knotting/ Marco _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa