Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema
sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in
prima persona nel maneggiare informazioni e ragionamenti.
Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta
un'altra potenza di fuoco.

Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre
di più, e sempre più sofisticate: le buone domande saranno sempre più
importanti delle risposte o meglio saranno importanti per avere delle
risposte ragionevoli a chiunque saranno indirizzate.

Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero
critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in
avanti.
Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo
riflettendo sopra sul come.

Alessandro

On Sat, 18 Feb 2023 at 12:08, Guido Vetere <vetere.gu...@gmail.com> wrote:

> Assioma della conoscenza (logica epistemica): Kp -> p
> a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non
> hai modo di stabilirlo, allora la tua è solo credenza
> ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non
> siamo messi molto meglio
> Il punto importante però è un altro: sta in quel 'modo di stabilirlo'.
> Va detto chiaramente: i LLM non devono essere accettati come modi di
> stabilire la verità di alcunché.
> Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a
> questi usi dei LLM.
> Usi che sono spinti dalla bulimia capitalistica entrata nella fase
> allucinatoria.
> Ecco: secondo me la resistenza potrebbe essere una valida alternativa a
> questo mortifero adattamento.
>
> G.
>
>
>
>
>
> On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giac...@tesio.it> wrote:
>
>> Non 'in senso stretto": chatgpt non sa nulla.
>>
>> Per affermare che un LLM sappia qualcosa è necessario svuotare
>> competamente il verbo
>> "sapere" del proprio significato e sostituirlo con quello di
>> "indicizzare".
>>
>> ChatGPT non sa.
>>
>>
>> Giacomo
>>
>>
>> Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <
>> andrea.boli...@h-farm.com> ha scritto:
>>>
>>> Ciao Giacomo,
>>>
>>> purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma
>>> molte.
>>> Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno
>>> tutto (in senso stretto non sanno nulla), scrivono cose false senza
>>> distinguere tra vero e falso, vengono creati/utilizzati da aziende che non
>>> hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
>>>
>>> AB
>>>
>>>
>>> Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giac...@tesio.it>
>>> ha scritto:
>>>
>>>> Salve Andrea,
>>>>
>>>>
>>>>
>>>
>>>
>>> innovation.h-farm.com / Linkedin
>>> <https://www.linkedin.com/company/h-farm-innovation>
>>>
>>> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV)
>>> *Milano*, Corso di Porta Romana, 15 – 20122
>>> *Torino*, Via San Quintino, 31 – 10121
>>>
>>> Our privacy policy
>>> <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-cookie-policy_DEF.pdf>
>>> .
>>>
>>> _______________________________________________
>> nexa mailing list
>> nexa@server-nexa.polito.it
>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to