Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad
argomentazioni che reputo fantagiuridiche e fantainformatiche.

Fabio

On Sun, Jul 16, 2023, 21:21 Giacomo Tesio <giac...@tesio.it> wrote:

> Ciao Fabio,
>
> Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falem...@gmail.com> ha
> scritto:
> >Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
> ><giac...@tesio.it> ha scritto:
> >> > se io mettessi online un generatore di
> >> > frasi casuali, ma di senso compiuto, che  prendessero spunto
> >> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
> >> > cognome di una persona esistente, e se il software generasse,
> >> > casualmente, frasi potenzialmente diffamatorie per quella persona
> >> > [...] il responsabile dell'eventuale diffamazione sarei io
> >>
> >> Certo!
> >>
> >> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
> >> diffamazione sei ovviamente tu!
> >
> >Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
> >se quel nome e cognome neanche esistono all'interno del data base che
> >quel sito utilizza, non posso IO essere responsabile.
>
> Non saresti responsabile se il software che hai scritto, a fronte di una
> richiesta relativa ad una
> persona non presente sul tuo database rispondesse sempre: "non dispongo di
> infornazioni sull'argomento richiesto".
>
> Se invece fornisce un output che una mente umana interpreta come
> informazione,
> alloravdi quell'output DEVI ovviamente rispondere.
>
>
> E la ragione è semplicissima: il tuo software automatizza ciò che faresti
> tu.
>
>
> Nel caso di un chatbot è evidente: se il sito permettesse di chattare con
> te e tu
> diffamassi qualcuno, ne dovresti rispondere.
>
> Se bastasse (dichiarare di) aver usato un automatismo per non rispondere
> di un reato
> avremmo una abrogazione di fatto del diritto penale.
>
>
>
> >> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
> >
> >Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
> >Quello è un input fornito dall'utente, che fa partire un'inferenza,
> >che produce un output che potrà a sua volta contenere contenere
> >quell'input *fornito dall'utente*.
>
> E davvero credi che qualcuni non l'abbia capito?
>
> L'utente è responsabile per ciò che scrive (l'input).
>
>
> Ma poiché non scrive il software che elabora tale e non ne pubblica
> l'output, non può
> essere considerato in alcun modo responsabile di tale output.
>
>
> Le responsabilità sono chiarissime e ben ripartite.
>
>
> > Ciò avviene sulla base di un
> >algoritmo che tenta di prevedere quale "token" (tipicamente una
> >sillaba) è più probabile che segua i token forniti in precedenza
> >dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
> >*pattern* che sono stati estratti dai testi su cui la rete neurale è
> >stata istruita, con un pizzico di randomness aggiunta.
>
> Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto
> confuso.
>
> Ad esempio la programmazione statistica non "estrae pattern" ma produce un
> software che
> riproduce _possibili_ correlazioni statistiche presenti nell'input, senza
> comprenderne
> la rilevanza, il significato o le relazioni.
>
> Correlazioni che da un lato possono essere del tutto casuali e dall'altro
> possono essere imposte
> dai programmatori selezionando i dati da utilizzare durante la
> programmazione statistica.
>
>
> >A seconda di quanto corretti e quanti fossero i dati su cui la rete
> >neurale è stata istruita, il risultato sarà più o meno accurato in
> >termini di lessico e esattezza.
> >
> >L'esattezza non è garantita, è solo più o meno probabile.
>
> Not even wrong.
>
> L'output non può essere "giusto" o "sbagiato" se non ha un significato.
>
> Se ha un significato, tale significato presuppone almeno un agente che
> voglia comunicarlo
> esprimendolo attraverso un significante costituito da simboli.
>
> In questo caso l'agente in questione è costituito dalle persone che hanno
> realizzato e mantengono operativo ChatGPT che è una loro espressione,
> ovvero OpenAI.
>
> Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone:
> senza il loro lavoro,
> il loro hardware e la corrente che pagano, non scriverebbe alcunché.
>
> Il fatto che l'output prodotto sia interpretabile da un essere umano come
> vero ("esatto") o
> falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e
> dunque della sua responsabilità.
>
> Se non vuole assumersi la responsabilità del significato attribuibile
> all'output del proprio
> software, OpenAI ha una sola cosa da fare: spegnerlo.
>
>
> >In ogni caso, l'output dipende dall'input, e l'input lo ha fornito
> l'utente.
>
> In misura trascurabile.
>
> L'output di un software è sempre determinato da 3 fattori:
>
> - input
> - stato iniziale
> - struttura logica del software
>
> Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun
> componente sull'output, dovremmo misurare i bit di entropia dell'input,
> quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i
> diversi token etc... quello che banalizzando hai definito il "database") e
> i bit di entropia impressi nel software nella sua interezza.
>
> Come penso anche tu possa intuire se sai anche solo vagamente di cosa
> stiamo parlando,
> il peso percentuale dell'input è dell'ordine di 0,00...01
>
>
> Naturalmente questa attribuzione di responsabilità sarebbe comunque
> irrazionale ed ingiusta:
> nessuno costringe OpenAI a includere parti dell'input nell'output, per cui
> deve rispondere
> ANCHE di tale inclusione.
>
> La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
>
>
>
> >Ho già più volte documentato come in molti casi  interpretati come
> >"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
> >la persona
>
> Hai scoperto l'acqua calda, Fabio.
>
> ChatGPT non sa nulla! ;-)
>
>
> OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il
> contrario.
>
>
> Giacomo
>
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to