>
> Suvvia, non servono supercazzole su Nexa: ci sono migliaia di esempi di
> LLM che restituiscono frammenti più o meno vasti di opere riconoscibili
> attribuendole a persone inesistenti e magari con licenze inesistenti
Tesio, se vuole risposte di merito da me, provi a formulare le sue
osservazi
>
> potremmo accusarlo a ragione di aver violato il copyright (diritto
morale dell'autore compreso) oppure potrebbe discolparsi dicendo che le
riproduzioni sono (un raro) esito di un processo generativo non
deterministico?
in ogni caso lo studente non avrebbe presentato un elaborato originale:
Salve Guido,
On Sun, 8 Sep 2024 12:31:14 +0200 Guido Vetere wrote:
> L'analogia tra i LLM e i dati (immagini, testi) compressi con o senza
> perdita è totalmente fuorviante, perché nei miliardi di parametri di
> una rete neurale non si può ricavare all'inverso il dataset di
> training, né se ne p
On 08/09/24 12:31, Guido Vetere wrote:
Quando un LLM 'rigurgita' un frammento (ma questo è un evento eccezionale)
lo fa comunque in un processo generativo non deterministico in cui quel
frammento diviene temporaneamente "attrattore" in forza delle "tracce
mnestiche" che ha prodotto nei parametri
Tutto questo parlare di SALAMI mi ha fatto venire in mente un motto di
spirito che si ascolta talvolta ai tavoli di progettazione: "fare il maiale
dalla salsiccia", cioè ricostruire il modello originale dai dati di cui si
dispone. Si tratta ovviamente di un paradosso, perché certi processi di
trasf
On 05/09/24 23:02, Daniela Tafani wrote:
Axel Voss, MEP and host of today's event in the European Parliament, expressly
thanks the scientists Dornis and Stober and is pleased that
“the study not only proves that the training of Generative AI models is not
covered by text and data mining, but