Qui però il discorso è leggermente diverso: almeno per ciò che mi riguarda, la 
perplessità non nasce dal fatto che non sia perfetto o che non faccia ciò che 
non è progettato per fare, quanto il fatto che, a fronte di un'esordio tutto 
sommato corretto, concluda con un decesso totalmente inventato. Se ci fosse un 
Pagallo marmista a Sidney o giocatore di basket in USA deceduto in quella data 
capirei la confusione, ma che, in mancanza di una fonte, si inventi totalemente 
il dato, peraltro inutile ai fini della risposta mi sembra strano. Poi magari 
la fonte c'è e sono io che non riesco a trovarla, ma sarei curioso di capire 
come ""ragiona"" (virgolette doppie intenzionali)

Buona settimana a tutti
D.
________________________________
From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of Giuseppe Attardi 
<atta...@di.unipi.it>
Sent: Monday, February 20, 2023 9:04 AM
To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di 
Chat GPT)]

Concordo che ChatGPT non “sappia”, quanto meno nel senso di saper trarre 
conclusioni dalle sue conoscenze: ha solo accumulato e fatto una propria 
sintesi di quanto ha accumulato.
Ma la sintesi non è un “indice” come quello dei motori di ricerca, altrimenti 
sputerebbe fuori solo quello, una lista di riferimenti.
Nei suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni 
sintattiche e semantiche, tra le parole, che gli consentono di generare nuove 
frasi, alcune sensate, altre meno.
ChatGPT, o meglio GPT-3.5, che è la sua fonte, non è nemmeno in grado di 
riprodurre esattamente il testo di nessuno (o quasi) dei documenti su cui è 
stato allenato.

Non sa fare ragionamenti logici o matematici. E allora?
Anch’io ci sono migliaia di cose che non so fare, perché non me le hanno 
insegnate.

In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose 
per cui non è stato previsto.

— Beppe

PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione 
di livelli.

On 18 Feb 2023, at 12:00, <nexa-requ...@server-nexa.polito.it> 
<nexa-requ...@server-nexa.polito.it> wrote:

From: Giacomo Tesio <giac...@tesio.it<mailto:giac...@tesio.it>>
To: Andrea Bolioli <andrea.boli...@h-farm.com<mailto:andrea.boli...@h-farm.com>>
Cc: Andrea Bolioli via nexa 
<nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>, "M.
Fioretti" <mfiore...@nexaima.net<mailto:mfiore...@nexaima.net>>
Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a
proposito di Chat GPT)]
Message-ID: 
<2405e17e-6b1e-463d-84bf-3403d948d...@tesio.it<mailto:2405e17e-6b1e-463d-84bf-3403d948d...@tesio.it>>
Content-Type: text/plain; charset="utf-8"

Non 'in senso stretto": chatgpt non sa nulla.

Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il 
verbo
"sapere" del proprio significato e sostituirlo con quello di "indicizzare".

ChatGPT non sa.


Giacomo


Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli 
<andrea.boli...@h-farm.com<mailto:andrea.boli...@h-farm.com>> ha scritto:
Ciao Giacomo,

purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma
molte.
Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto
(in senso stretto non sanno nulla), scrivono cose false senza distinguere
tra vero e falso, vengono creati/utilizzati da aziende che non hanno come
primo scopo il bene comune (anche se dicono di averlo), ecc

AB


Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio 
<giac...@tesio.it<mailto:giac...@tesio.it>>
ha scritto:

Salve Andrea,




--


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to