Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco.
Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate. Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come. Alessandro On Sat, 18 Feb 2023 at 12:08, Guido Vetere <vetere.gu...@gmail.com> wrote: > Assioma della conoscenza (logica epistemica): Kp -> p > a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non > hai modo di stabilirlo, allora la tua è solo credenza > ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non > siamo messi molto meglio > Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. > Va detto chiaramente: i LLM non devono essere accettati come modi di > stabilire la verità di alcunché. > Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a > questi usi dei LLM. > Usi che sono spinti dalla bulimia capitalistica entrata nella fase > allucinatoria. > Ecco: secondo me la resistenza potrebbe essere una valida alternativa a > questo mortifero adattamento. > > G. > > > > > > On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giac...@tesio.it> wrote: > >> Non 'in senso stretto": chatgpt non sa nulla. >> >> Per affermare che un LLM sappia qualcosa è necessario svuotare >> competamente il verbo >> "sapere" del proprio significato e sostituirlo con quello di >> "indicizzare". >> >> ChatGPT non sa. >> >> >> Giacomo >> >> >> Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli < >> andrea.boli...@h-farm.com> ha scritto: >>> >>> Ciao Giacomo, >>> >>> purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma >>> molte. >>> Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno >>> tutto (in senso stretto non sanno nulla), scrivono cose false senza >>> distinguere tra vero e falso, vengono creati/utilizzati da aziende che non >>> hanno come primo scopo il bene comune (anche se dicono di averlo), ecc >>> >>> AB >>> >>> >>> Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giac...@tesio.it> >>> ha scritto: >>> >>>> Salve Andrea, >>>> >>>> >>>> >>> >>> >>> innovation.h-farm.com / Linkedin >>> <https://www.linkedin.com/company/h-farm-innovation> >>> >>> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) >>> *Milano*, Corso di Porta Romana, 15 – 20122 >>> *Torino*, Via San Quintino, 31 – 10121 >>> >>> Our privacy policy >>> <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-cookie-policy_DEF.pdf> >>> . >>> >>> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa