Usi che sono spinti dalla bulimia capitalistica entrata nella fase 
allucinatoria.

Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo 
mortifero adattamento.

 

L’adozione di un nuovo modello è ciò che vado proponendo io, e che presenterò 
martedì 14 marzo all’Eticaffè ospitato da Caffè Vergnano di Corso Einaudi 31, a 
Torino.

 

Andrea Surbone
+39 335 7226007
 <http://www.surbone.it/> www.surbone.it 

 <http://www.jussemper.org/> www.jussemper.org 

 <http://www.propostaneokeynesiana.it/> www.propostaneokeynesiana.it

 

D. Astrologo, A. Surbone, P. Terna 

Il lavoro e il valore al tempo dei robot - Intelligenza artificiale e 
non-occupazione 

Meltemi, Milano 2019 – con prefazione di Adam Smith

 <http://www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/> 
www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/

 

Da: nexa <nexa-boun...@server-nexa.polito.it> Per conto di Guido Vetere
Inviato: sabato 18 febbraio 2023 12:08
A: Giacomo Tesio <giac...@tesio.it>
Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di 
Chat GPT)]

 

Assioma della conoscenza (logica epistemica): Kp -> p

a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai 
modo di stabilirlo, allora la tua è solo credenza

ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo 
messi molto meglio

Il punto importante però è un altro: sta in quel 'modo di stabilirlo'.

Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire 
la verità di alcunché.

Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi 
usi dei LLM.

Usi che sono spinti dalla bulimia capitalistica entrata nella fase 
allucinatoria.

Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo 
mortifero adattamento.

 

G.

      

 

 

 

 

On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giac...@tesio.it 
<mailto:giac...@tesio.it> > wrote:

Non 'in senso stretto": chatgpt non sa nulla.

Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il 
verbo
"sapere" del proprio significato e sostituirlo con quello di "indicizzare".

ChatGPT non sa.


Giacomo



Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.boli...@h-farm.com 
<mailto:andrea.boli...@h-farm.com> > ha scritto:

Ciao Giacomo,

 

purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. 

Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in 
senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero 
e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il 
bene comune (anche se dicono di averlo), ecc

 

AB

 

 

Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giac...@tesio.it 
<mailto:giac...@tesio.it> > ha scritto:

Salve Andrea,



 

  <https://h-farm-static.s3.eu-south-1.amazonaws.com/HFI_JAKALA_Logo_mail.png> 

 

innovation.h-farm.com <https://innovation.h-farm.com/>  / Linkedin 
<https://www.linkedin.com/company/h-farm-innovation> 

 

Roncade, H-FARM Campus, Via Olivetti, 1 – 31056 (TV)
Milano, Corso di Porta Romana, 15 – 20122
Torino, Via San Quintino, 31 – 10121


Our privacy policy 
<https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-cookie-policy_DEF.pdf>
 . 

 

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> 
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to