Interessante osservare quanto sia persistente la percezione che i sistemi basati sui Large Language Model "sappiano" qualcosa, e come ci si stupisca e ci si interroghi sugli strani errori che commettono, ad onta della razionale consapevolezza che essi non "sappiano" far altro che generare su basi raffinatamente statistiche la continuazione di una frase. Strano leggere sui social commenti del tipo: 'beh, in fondo anche Socrate sapeva di non sapere'. E' come se la potenza persuasiva dei monopolisti digitali fosse tale da scardinare le nozioni basilari del nostro senso comune. Il capitalismo monopolista è entrato in una fase allucinatoria, questo non l'aveva previsto neanche il filosofo di Treviri. G.
On Mon, 20 Feb 2023 at 15:10, Giacomo Tesio <giac...@tesio.it> wrote: > On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote: > > > Non hai nessun motivo per pensare o pretendere che il dato esatto, se > > è stato fornito, torni fuori. > > Beh, non hai nemmeno alcun modo di escluderlo. > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa