Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad argomentazioni che reputo fantagiuridiche e fantainformatiche.
Fabio On Sun, Jul 16, 2023, 21:21 Giacomo Tesio <giac...@tesio.it> wrote: > Ciao Fabio, > > Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falem...@gmail.com> ha > scritto: > >Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio > ><giac...@tesio.it> ha scritto: > >> > se io mettessi online un generatore di > >> > frasi casuali, ma di senso compiuto, che prendessero spunto > >> > dall'input dell'utente, e se l'input dell'utente fosse il nome e > >> > cognome di una persona esistente, e se il software generasse, > >> > casualmente, frasi potenzialmente diffamatorie per quella persona > >> > [...] il responsabile dell'eventuale diffamazione sarei io > >> > >> Certo! > >> > >> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale > >> diffamazione sei ovviamente tu! > > > >Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, > >se quel nome e cognome neanche esistono all'interno del data base che > >quel sito utilizza, non posso IO essere responsabile. > > Non saresti responsabile se il software che hai scritto, a fronte di una > richiesta relativa ad una > persona non presente sul tuo database rispondesse sempre: "non dispongo di > infornazioni sull'argomento richiesto". > > Se invece fornisce un output che una mente umana interpreta come > informazione, > alloravdi quell'output DEVI ovviamente rispondere. > > > E la ragione è semplicissima: il tuo software automatizza ciò che faresti > tu. > > > Nel caso di un chatbot è evidente: se il sito permettesse di chattare con > te e tu > diffamassi qualcuno, ne dovresti rispondere. > > Se bastasse (dichiarare di) aver usato un automatismo per non rispondere > di un reato > avremmo una abrogazione di fatto del diritto penale. > > > > >> Vuoi illuminarci su ciò che a tuo parere non comprendiamo? > > > >Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. > >Quello è un input fornito dall'utente, che fa partire un'inferenza, > >che produce un output che potrà a sua volta contenere contenere > >quell'input *fornito dall'utente*. > > E davvero credi che qualcuni non l'abbia capito? > > L'utente è responsabile per ciò che scrive (l'input). > > > Ma poiché non scrive il software che elabora tale e non ne pubblica > l'output, non può > essere considerato in alcun modo responsabile di tale output. > > > Le responsabilità sono chiarissime e ben ripartite. > > > > Ciò avviene sulla base di un > >algoritmo che tenta di prevedere quale "token" (tipicamente una > >sillaba) è più probabile che segua i token forniti in precedenza > >dall'utente e quelli generati dall'algoritmo stesso, sulla base dei > >*pattern* che sono stati estratti dai testi su cui la rete neurale è > >stata istruita, con un pizzico di randomness aggiunta. > > Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto > confuso. > > Ad esempio la programmazione statistica non "estrae pattern" ma produce un > software che > riproduce _possibili_ correlazioni statistiche presenti nell'input, senza > comprenderne > la rilevanza, il significato o le relazioni. > > Correlazioni che da un lato possono essere del tutto casuali e dall'altro > possono essere imposte > dai programmatori selezionando i dati da utilizzare durante la > programmazione statistica. > > > >A seconda di quanto corretti e quanti fossero i dati su cui la rete > >neurale è stata istruita, il risultato sarà più o meno accurato in > >termini di lessico e esattezza. > > > >L'esattezza non è garantita, è solo più o meno probabile. > > Not even wrong. > > L'output non può essere "giusto" o "sbagiato" se non ha un significato. > > Se ha un significato, tale significato presuppone almeno un agente che > voglia comunicarlo > esprimendolo attraverso un significante costituito da simboli. > > In questo caso l'agente in questione è costituito dalle persone che hanno > realizzato e mantengono operativo ChatGPT che è una loro espressione, > ovvero OpenAI. > > Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: > senza il loro lavoro, > il loro hardware e la corrente che pagano, non scriverebbe alcunché. > > Il fatto che l'output prodotto sia interpretabile da un essere umano come > vero ("esatto") o > falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e > dunque della sua responsabilità. > > Se non vuole assumersi la responsabilità del significato attribuibile > all'output del proprio > software, OpenAI ha una sola cosa da fare: spegnerlo. > > > >In ogni caso, l'output dipende dall'input, e l'input lo ha fornito > l'utente. > > In misura trascurabile. > > L'output di un software è sempre determinato da 3 fattori: > > - input > - stato iniziale > - struttura logica del software > > Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun > componente sull'output, dovremmo misurare i bit di entropia dell'input, > quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i > diversi token etc... quello che banalizzando hai definito il "database") e > i bit di entropia impressi nel software nella sua interezza. > > Come penso anche tu possa intuire se sai anche solo vagamente di cosa > stiamo parlando, > il peso percentuale dell'input è dell'ordine di 0,00...01 > > > Naturalmente questa attribuzione di responsabilità sarebbe comunque > irrazionale ed ingiusta: > nessuno costringe OpenAI a includere parti dell'input nell'output, per cui > deve rispondere > ANCHE di tale inclusione. > > La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI. > > > > >Ho già più volte documentato come in molti casi interpretati come > >"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse > >la persona > > Hai scoperto l'acqua calda, Fabio. > > ChatGPT non sa nulla! ;-) > > > OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il > contrario. > > > Giacomo > >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa