Ciao Fabio, Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falem...@gmail.com> ha scritto: >Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio ><giac...@tesio.it> ha scritto: >> > se io mettessi online un generatore di >> > frasi casuali, ma di senso compiuto, che prendessero spunto >> > dall'input dell'utente, e se l'input dell'utente fosse il nome e >> > cognome di una persona esistente, e se il software generasse, >> > casualmente, frasi potenzialmente diffamatorie per quella persona >> > [...] il responsabile dell'eventuale diffamazione sarei io >> >> Certo! >> >> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale >> diffamazione sei ovviamente tu! > >Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, >se quel nome e cognome neanche esistono all'interno del data base che >quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto". Se invece fornisce un output che una mente umana interpreta come informazione, alloravdi quell'output DEVI ovviamente rispondere. E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu. Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu diffamassi qualcuno, ne dovresti rispondere. Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato avremmo una abrogazione di fatto del diritto penale. >> Vuoi illuminarci su ciò che a tuo parere non comprendiamo? > >Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. >Quello è un input fornito dall'utente, che fa partire un'inferenza, >che produce un output che potrà a sua volta contenere contenere >quell'input *fornito dall'utente*. E davvero credi che qualcuni non l'abbia capito? L'utente è responsabile per ciò che scrive (l'input). Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può essere considerato in alcun modo responsabile di tale output. Le responsabilità sono chiarissime e ben ripartite. > Ciò avviene sulla base di un >algoritmo che tenta di prevedere quale "token" (tipicamente una >sillaba) è più probabile che segua i token forniti in precedenza >dall'utente e quelli generati dall'algoritmo stesso, sulla base dei >*pattern* che sono stati estratti dai testi su cui la rete neurale è >stata istruita, con un pizzico di randomness aggiunta. Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso. Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne la rilevanza, il significato o le relazioni. Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte dai programmatori selezionando i dati da utilizzare durante la programmazione statistica. >A seconda di quanto corretti e quanti fossero i dati su cui la rete >neurale è stata istruita, il risultato sarà più o meno accurato in >termini di lessico e esattezza. > >L'esattezza non è garantita, è solo più o meno probabile. Not even wrong. L'output non può essere "giusto" o "sbagiato" se non ha un significato. Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo esprimendolo attraverso un significante costituito da simboli. In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI. Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro, il loro hardware e la corrente che pagano, non scriverebbe alcunché. Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità. Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio software, OpenAI ha una sola cosa da fare: spegnerlo. >In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente. In misura trascurabile. L'output di un software è sempre determinato da 3 fattori: - input - stato iniziale - struttura logica del software Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza. Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando, il peso percentuale dell'input è dell'ordine di 0,00...01 Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta: nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere ANCHE di tale inclusione. La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI. >Ho già più volte documentato come in molti casi interpretati come >"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse >la persona Hai scoperto l'acqua calda, Fabio. ChatGPT non sa nulla! ;-) OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario. Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa