Al di là dell'iperbole, com'è naturale nell'esempio, se ho colto correttamente 
il senso della tua domanda, la mia risposta, non giuridica, ma legata alla mia 
personale personale, è che un disclaimer (se chiaro e comprensibile: né le 
righe scritte in piccolo delle assicurazioni, né le 50 pagine di certe privacy 
policy) non solleva dalla responsabilità, ma aiuta certo a condividerla: per 
quanto un esempio abbia sempre dei limiti, propongo questa situazione: mio 
figlio di 5 anni è gravemente allergico alle uova. Se mi arrivano delle 
polpette o una trota al forno, con scritto "non contiene uova" e poi risultano 
invece presenti la responsabilità è del ristoratore. Ma se arrivano delle uova 
sode o all'occhio di bue, anche se per sbaglio c'è scritto "senza uova" sono 
comunque responsabile nel darle al figlio (mi correggano i giuristi se 
sbaglio), perché devo analizzare criticamente quello che c'è scritto e 
confrontarlo con quello che c'è nel piatto. Io ho avuto un principio di 
distacco della retina e un distacco del vitreo: anche se non c'è scritto in 
biglietteria, so che non devo salire sulle montagne russe o su una giostra che 
scuote eccessivamente o guidare una formula1, così come se scalo un 4000 devo 
sapere che l'aria è rarefatta pur senza un cartello all'attacco della via.

L'idea che tutto debba essere descritto, elencato, pensato a prova di idiota 
creerà un mondo dove solo gli idioti si trovano benissimo, ed è questo il mio 
più grande timore nei confronti dell'AI: un mondo dove uno studente, un 
principiante, un apprendista, un pigro non deve pensare, perché c'è un'AI che 
pensa per lui e tutto viene accettato passivamente.

E qui arrivo alla mail di Marco, con il quale evidentemente siamo in sintonia, 
anche se abbiamo espresso l'idea in modo diverso: il problema non è la veggente 
che ti legge il futuro nei fondi del caffè o nelle carte, il problema è che 
qualcuno le vada dietro. Il problema non è Paolo Fox che a inizio 2020 
prevedeva un periodo favorevole per i viaggi nei primi mesi dell'anno, il 
problema è che, pur dopo la pandemia e il lockdown, continui a stare in TV, 
perché ancora qualcuno lo segue.

Ecco allora che il mio timore non è che ChatGPT dica - erroneamente - che ho 
subito una qualche condanna per crimini infamanti, il mio timore è che un 
giornalista o un datore di lavoro la prenda per buona senza controllare. 
Peraltro il problema non è nuovo (tanto per dirne una, pensiamo ai diari di 
Hitler - falsi - che Panorama aveva comprato a caro prezzo) ma l'AI aumenterà 
enormemente la magnitudo.

Un amico che scriveva un libro, dove parlava tra le altre cose della medaglia 
di San Benedetto, mi ha chiesto aiuto perché non riusciva a trovare 
informazioni sulle prime versioni. Ho provato con ChatGPT e, dopo una prima 
risposta errata, ho riformulato la domanda in linguaggio naturale, come avrei 
fatto con uno studente, e mi ha scovato varie informazioni. Cambiando la parole 
chiave su Google e mobilitando alcuni suoi contatti a Norcia ha trovato 
conferma di ciò che l'AI aveva prodotto, il che mi sembra un ottimo esempio sia 
di utilità del sistema, che è riuscita dove i motori di ricerca avevano 
fallito, ma anche di uso responsabile, dato che non si è accettato passivamente 
l'oracolo ma si è andati a verificare alle fonti d'archivio.

L'AI, per me, è uno strumento come un altro (beh, certo più potente e quindi 
pericoloso di altri, ma d'altra parte anche la bomba atomica non scherza), che 
ancora dobbiamo imparare a usare; il fatto che si svilupperà in positivo o meno 
dipende da noi e in questo senso ben vengano iniziative come quelle del 
Garante, che, giuste o sbagliate, scritte bene o male, comunque aiutano a 
tenere alta l'attenzione, come dimostra il vivace dibattito anche su questa 
lista.

Scusatemi la mail un po' lunga

Un buon fine settimana a tutti e buona Pasqua a voi e famiglie
D.

________________________________
From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of Giacomo Tesio 
<giac...@tesio.it>
Sent: Tuesday, April 4, 2023 1:06 PM
To: Guido Vetere <vetere.gu...@gmail.com>
Cc: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
Subject: Re: [nexa] ChatGPT disabled for users in Italy

Ciao Guido, Diego e Nexa,

On Tue, 4 Apr 2023 12:16:48 +0200 Guido Vetere wrote:

> il vostro punto di vista è molto interessante e vi ringrazio per
> averlo esposto con tanta coraggiosa assertività.

:-D

Quando un hacker ti pone delle domande, non pensare di potertela cavare
con una battuta! ;-)


Comunque concordo con Diego: il tuo esempio è molto azzecato.
Purtroppo la domanda che poni è irrilevante.
(e conseguentemente, la risposta che proponi)

> Sono al ristorante con un amico, il menù comprende sei piatti. Io li
> valuto e scelgo quello che preferisco. Il mio amico estrae dalla
> tasca un dado, lo lancia e sceglie il piatto che corrisponde al
> numero che esce.
>
> Domanda: io e il mio amico siamo nella stessa relazione causale
> rispetto a ciò che mangerà?

La relazione causale rispetto a ciò che mangerete è irrilevante.

Ciò che rileva è che entrambi avete scelto liberamente COME selezionare
il vostro menù: tu alla luce di una valutazione gastronomica, lui sulla
base di un automatismo di cui comprende pienamente il funzionamento.
Il tuo amico decide il numero di facce, il numero di lanci, e
conseguentemente la probabilità relativa dei diversi risultati, nonché
l'interpretazione da attribuire a ciascun risultato (si conta dal fondo
o dall'inizio? si sottrae il prodotto fra numero di dadi e lanci al
risultato? etc..)

Il dado è dunque solo uno strumento del tuo amico. Potrebbe farne
tranquillamente a meno, accontentandosi di un numero pensato "a caso".



Per fare un esempio più calzante, ipotiziamo che il cuoco decida gli
ingredienti del vostro pasto sulla base del colore dei vostri vestiti e
di lanci di un dado. Gli ingredienti sono infatti in barattoli
colorati e numerati, ma senza etichetta.

Prima di farvi accomodare, il cameriere robotizzato vi informa
chiaramente che occasionalmente le pietanze potrebbero contenere
combinazioni indigeste o persino tossiche degli ingredienti (ciascuno
di per sé commestibile in isolamento), senza che il cuoco possa in
alcun modo essere ritenuto responsabile per eventuali, occasionali,
decessi.


Voi vi sedete comunque, pensando si tratti di uno scherzo.
In fondo il ristorante è pieno di persone che sembrano assaporare
con grande soddisfazione piatti assolutamente deliziosi.

Alla fine del pasto, il tuo ipotetico amico muore.


Secondo te, il cuoco è responsabile della sua morte?
Il fatto di avervi avvertito con un chiaro disclaimer, allevia la sua
responsabilità penale?

E se la preparazione e la cottura della pietanza fosse completamente
meccanizzata? Ne risponderebbe il proprietario del locale?

E se invece di morire alla fine del pranzo a causa delle sostanze
ingerite, il tuo amico si ammalasse di cancro e gravasse sul servizio
sanitario nazionale per decenni insieme al 5-10% degli avventori del
ristorante?


Laddove un'autorità competente chiedesse conto dei danni prodotti al
proprietario, ti strapperesti le vesti?


Il proprietario del ristorante potrebbe argomentare di che il suo
robot-cuoco non aveva alcuna intenzionalità e che voi che l'avete usato
(peraltro, gratuitamente) eravate stati avvertiti con un chiaro
disclaimer dei rischi?


> Se però consideriamo gli sviluppi dell'IA degli ultimi anni, e in
> particolare i LLM, le cose sono a mio avviso più complesse. Non mi
> inoltro in argomentazioni metafisiche...

Non c'è niente di metafisico in un software programmato statisticamente.

Cambia (in parte) il modo di programmare questi software rispetto alla
programmazione linguistica (imperativa, funzionale, a oggetti etc...)
ma non cambia il fatto che siano programmati: qualcuno li realizza per
riprodurre automaticamente un certo comportamento.

Il fatto che chi li programma dichiari di non avere piena comprensione
del loro funzionamento, li rende semplicemente inutilizzabili.


Ma non c'è alcuna ragione, etica, logica o metafisica, per cui dovremmo
garantire a queste persone (e queste aziende) un salvacondotto dalla
Legge per le violazioni compiute tramite questi agenti cibernetici
automatici.


Loro li costruiscono e li eseguono, dunque loro ne devono rispondere.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to