Qui però il discorso è leggermente diverso: almeno per ciò che mi riguarda, la perplessità non nasce dal fatto che non sia perfetto o che non faccia ciò che non è progettato per fare, quanto il fatto che, a fronte di un'esordio tutto sommato corretto, concluda con un decesso totalmente inventato. Se ci fosse un Pagallo marmista a Sidney o giocatore di basket in USA deceduto in quella data capirei la confusione, ma che, in mancanza di una fonte, si inventi totalemente il dato, peraltro inutile ai fini della risposta mi sembra strano. Poi magari la fonte c'è e sono io che non riesco a trovarla, ma sarei curioso di capire come ""ragiona"" (virgolette doppie intenzionali)
Buona settimana a tutti D. ________________________________ From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of Giuseppe Attardi <atta...@di.unipi.it> Sent: Monday, February 20, 2023 9:04 AM To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Concordo che ChatGPT non “sappia”, quanto meno nel senso di saper trarre conclusioni dalle sue conoscenze: ha solo accumulato e fatto una propria sintesi di quanto ha accumulato. Ma la sintesi non è un “indice” come quello dei motori di ricerca, altrimenti sputerebbe fuori solo quello, una lista di riferimenti. Nei suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni sintattiche e semantiche, tra le parole, che gli consentono di generare nuove frasi, alcune sensate, altre meno. ChatGPT, o meglio GPT-3.5, che è la sua fonte, non è nemmeno in grado di riprodurre esattamente il testo di nessuno (o quasi) dei documenti su cui è stato allenato. Non sa fare ragionamenti logici o matematici. E allora? Anch’io ci sono migliaia di cose che non so fare, perché non me le hanno insegnate. In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto. — Beppe PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione di livelli. On 18 Feb 2023, at 12:00, <nexa-requ...@server-nexa.polito.it> <nexa-requ...@server-nexa.polito.it> wrote: From: Giacomo Tesio <giac...@tesio.it<mailto:giac...@tesio.it>> To: Andrea Bolioli <andrea.boli...@h-farm.com<mailto:andrea.boli...@h-farm.com>> Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>, "M. Fioretti" <mfiore...@nexaima.net<mailto:mfiore...@nexaima.net>> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Message-ID: <2405e17e-6b1e-463d-84bf-3403d948d...@tesio.it<mailto:2405e17e-6b1e-463d-84bf-3403d948d...@tesio.it>> Content-Type: text/plain; charset="utf-8" Non 'in senso stretto": chatgpt non sa nulla. Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare". ChatGPT non sa. Giacomo Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.boli...@h-farm.com<mailto:andrea.boli...@h-farm.com>> ha scritto: Ciao Giacomo, purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc AB Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giac...@tesio.it<mailto:giac...@tesio.it>> ha scritto: Salve Andrea, --
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa