Interessante osservare quanto sia persistente la percezione che i sistemi
basati sui Large Language Model  "sappiano" qualcosa,  e come ci si
stupisca e ci si interroghi sugli strani errori che commettono, ad onta
della razionale consapevolezza che essi non "sappiano" far altro che
generare su basi raffinatamente statistiche la continuazione di una frase.
Strano leggere sui social commenti del tipo: 'beh, in fondo anche Socrate
sapeva di non sapere'.
E' come se la potenza persuasiva dei monopolisti digitali fosse tale da
scardinare le nozioni basilari del nostro senso comune.
Il capitalismo monopolista è entrato in una fase allucinatoria, questo non
l'aveva previsto neanche il filosofo di Treviri.
G.




On Mon, 20 Feb 2023 at 15:10, Giacomo Tesio <giac...@tesio.it> wrote:

> On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
>
> > Non hai nessun motivo per pensare o pretendere che il dato esatto, se
> > è stato fornito, torni fuori.
>
> Beh, non hai nemmeno alcun modo di escluderlo.
>
>
> Giacomo
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to