Ciao Fabio,

Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falem...@gmail.com> ha scritto:
>Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
><giac...@tesio.it> ha scritto:
>> > se io mettessi online un generatore di
>> > frasi casuali, ma di senso compiuto, che  prendessero spunto
>> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
>> > cognome di una persona esistente, e se il software generasse,
>> > casualmente, frasi potenzialmente diffamatorie per quella persona
>> > [...] il responsabile dell'eventuale diffamazione sarei io
>>
>> Certo!
>>
>> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
>> diffamazione sei ovviamente tu!
>
>Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
>se quel nome e cognome neanche esistono all'interno del data base che
>quel sito utilizza, non posso IO essere responsabile.

Non saresti responsabile se il software che hai scritto, a fronte di una 
richiesta relativa ad una
persona non presente sul tuo database rispondesse sempre: "non dispongo di 
infornazioni sull'argomento richiesto".

Se invece fornisce un output che una mente umana interpreta come informazione,
alloravdi quell'output DEVI ovviamente rispondere.


E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu.


Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e 
tu 
diffamassi qualcuno, ne dovresti rispondere.

Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un 
reato
avremmo una abrogazione di fatto del diritto penale.



>> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
>
>Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
>Quello è un input fornito dall'utente, che fa partire un'inferenza,
>che produce un output che potrà a sua volta contenere contenere
>quell'input *fornito dall'utente*.

E davvero credi che qualcuni non l'abbia capito?

L'utente è responsabile per ciò che scrive (l'input).


Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, 
non può 
essere considerato in alcun modo responsabile di tale output.


Le responsabilità sono chiarissime e ben ripartite.


> Ciò avviene sulla base di un
>algoritmo che tenta di prevedere quale "token" (tipicamente una
>sillaba) è più probabile che segua i token forniti in precedenza
>dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
>*pattern* che sono stati estratti dai testi su cui la rete neurale è
>stata istruita, con un pizzico di randomness aggiunta.

Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto 
confuso.

Ad esempio la programmazione statistica non "estrae pattern" ma produce un 
software che
riproduce _possibili_ correlazioni statistiche presenti nell'input, senza 
comprenderne 
la rilevanza, il significato o le relazioni.

Correlazioni che da un lato possono essere del tutto casuali e dall'altro 
possono essere imposte
dai programmatori selezionando i dati da utilizzare durante la programmazione 
statistica.


>A seconda di quanto corretti e quanti fossero i dati su cui la rete
>neurale è stata istruita, il risultato sarà più o meno accurato in
>termini di lessico e esattezza.
>
>L'esattezza non è garantita, è solo più o meno probabile.

Not even wrong.

L'output non può essere "giusto" o "sbagiato" se non ha un significato.

Se ha un significato, tale significato presuppone almeno un agente che voglia 
comunicarlo 
esprimendolo attraverso un significante costituito da simboli.

In questo caso l'agente in questione è costituito dalle persone che hanno 
realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero 
OpenAI.

Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza 
il loro lavoro,
il loro hardware e la corrente che pagano, non scriverebbe alcunché.

Il fatto che l'output prodotto sia interpretabile da un essere umano come vero 
("esatto") o 
falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque 
della sua responsabilità.

Se non vuole assumersi la responsabilità del significato attribuibile 
all'output del proprio
software, OpenAI ha una sola cosa da fare: spegnerlo.


>In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.

In misura trascurabile.

L'output di un software è sempre determinato da 3 fattori:

- input
- stato iniziale
- struttura logica del software

Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun 
componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli 
dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi 
token etc... quello che banalizzando hai definito il "database") e i bit di 
entropia impressi nel software nella sua interezza.

Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo 
parlando,
il peso percentuale dell'input è dell'ordine di 0,00...01


Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale 
ed ingiusta:
nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve 
rispondere
ANCHE di tale inclusione.

La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.



>Ho già più volte documentato come in molti casi  interpretati come
>"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
>la persona

Hai scoperto l'acqua calda, Fabio.

ChatGPT non sa nulla! ;-)


OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il 
contrario.


Giacomo

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to