Caro Alessandro,

grazie dell'osservazione, che coglie un aspetto importante:
i testi prodotti da ChatGPT hanno il significato che attribuiscono loro gli 
esseri umani che li leggono,
come ha appena ricordato Enrico Nardelli.

Il valore informativo di questi testi, invece, è nullo,
perché si trovano mescolate inestricabilmente, nel medesimo testo, stringhe di 
testo o di codice valutate dagli esseri umani come corrette
e stringhe che che gli esseri umani, unanimemente e a buon diritto, considerano 
sbagliate
(sorvolando qui sulle questioni opinabili).

Gary Marcus ha riciclato una metafora disgustosa, ma abbastanza efficace:
i testi prodotti da ChatGPT sono come una raffinata pietanza (aspetto da non 
sottovalutare)
in cui ogni volta sia stata mescolata una palla più o meno piccola di 
escrementi.

A differenza di quanto accadrebbe col cibo, tuttavia, nei testi prodotti da 
ChatGPT 
possiamo separare le parti corrette da quelle sbagliate,
ma solo nei casi in cui possediamo già, indipendentemente da ChatGPT,  tutte le 
informazioni necessarie:
solo per fare un paio di esempi tra i tanti, in alcune prove dei miei studenti,
alla richiesta di scrivere una breve biografia di Pelé, è stato prodotto un 
testo plausibile, salvo che lo dava per morto nel 2020;
alla richiesta di scrivere qualche riga sulla figura di don Rodrigo, è stato 
prodotto un testo corretto, salvo che per la frase "don Rodrigo è il padre di 
Lucia".
Si tratta di una caratteristica ormai ampiamente documentata e del tutto 
coerente con la natura di questi sistemi,
che ricuciono le stringhe di testo rilevate nei dati di partenza sulla base di 
informazioni probabilistiche su come si combinano. 

E, punto che sfugge a chi non conosca la natura di questi sistemi 
(me lo ha fatto notare qualche tempo fa Giuseppe Attardi e se ne occupa 
diffusamente Louise Amoore, Cloud Ethics, 2020),
"don Rodrigo è il padre di Lucia" non è un errore: è anzi il momento in cui 
possiamo intravedere il modo in cui il sistema funziona.

Dal punto di vista tecnico, la morte di Elaine Herzberg - uccisa da un veicolo 
"autonomo"  - non è un errore: 
è, come è stato osservato da un CEO, l'aggiunta di un nuovo "data point" (lo 
racconta Jack Stilgoe in Who's driving innovation?, 2020). 

Il problema è che ormai si dà per buono un modo di produzione impregnato di 
determinismo e soluzionismo tecnologici,
che risolve senza averla prima esaminata la questione sull'opportunità, 
l'utilità e i costi dello sviluppo di alcuni sistemi. 
Anzi, li rilascia anzitempo, per far compiere gratuitamente alla collettività 
tutto il lavoro di test.
Non a caso, si parla di colonialismo digitale, per l'esproprio del nostro 
lavoro,
oltre che di quello, di cui abbiamo parlato nei giorni scorsi, delle persone la 
cui salute mentale sarà distrutta
dalla visione o lettura ininterrotta di video e testi su stupri, torture e 
violenze di ogni genere.

Non si tratta solo della questione (fondamentale) della retribuzione o gratuità 
del lavoro
o delle conseguenze di simili attività (agli ignari compratori della Tesla 
erano tacitamente affidati i test per lo sviluppo di un prodotto 
al momento inesistente - come riportano le recenti cronache giudiziarie - e ad 
alcuni di loro il test è costato la vita).
Si tratta anche dell'agenda della ricerca, per usare un termine in voga: 
come osserva Timnit Gebru, le energie dei ricercatori sono tutte convogliate 
verso una truffa colossale
- e con ciò distolte da un lavoro su ricerche diverse - 
sia che essi siano complici, sia che debbano lavorare per mostrare 
puntualmente, 
ogni volta esaminando un sistema nuovo ma con i medesimi effetti dei 
precedenti,  le conseguenze indesiderate e i danni sociali.

Di certo ho scritto troppo. Spero di aver almeno risposto alla domanda.

Un saluto,
Daniela

______________________________
Da: Alessandro Brolpito <abrolp...@gmail.com>
Inviato: sabato 21 gennaio 2023 11:20
A: Daniela Tafani
Cc: Giacomo Tesio; maurizio lana; nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ChatGpt e la scuola

Grazie Daniela,
Mi chiedo solo se il valore informativo non dipenda anche da chi legge e che 
sia difficile affermare questo in assoluto, domanda "vera" per capire meglio i 
limiti dell'AI...
Alessandro

On Sat, 21 Jan 2023 at 10:38, Daniela Tafani 
<daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>> wrote:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:

ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole 
che siano statisticamente simili alle risposte corrette.

(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)


________________________________
Da: nexa 
<nexa-boun...@server-nexa.polito.it<mailto:nexa-boun...@server-nexa.polito.it>> 
per conto di Daniela Tafani 
<daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>>
Inviato: sabato 21 gennaio 2023 10:31
A: Giacomo Tesio; maurizio lana
Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] ChatGpt e la scuola

Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per 
chi sappia di cosa si tratta
(le persone sono abituate a considerare affidabile, ad esempio, un'operazione 
matematica svolta da una macchina,
sebbene questa non ne conosca il significato,
e un sistema probabilistico darà invece allegramente1 risultati corretti e 
scorretti inestricabilmente combinati):

ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano 
statisticamente simili alle risposte corrette.

L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e 
dunque genera maggior profitto, non perché funzioni;
perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo 
già  psicoterapeuti chatbot, a pagamento),
a meno che non intervenga il diritto  (e qui si spiega l'utilità di una cattura 
culturale, con le narrazioni magiche, per tenere alla larga la regolazione 
giuridica):

<https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>>

Buon fine settimana,
Daniela

1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
tanto allegramente quanto verso qualsiasi altra destinazione." (William James)




________________________________
Da: nexa 
<nexa-boun...@server-nexa.polito.it<mailto:nexa-boun...@server-nexa.polito.it>> 
per conto di Giacomo Tesio <giac...@tesio.it<mailto:giac...@tesio.it>>
Inviato: sabato 21 gennaio 2023 01:44
A: maurizio lana
Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] ChatGpt e la scuola

On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:

> > chatGPT produce testo 'finito' combinando chunks testuali del cui
> > significato non sa nulla, in modo statisticamente coerente con l'uso
> > di questi chunks nei testi da cui ha appreso.
>
> Credo che non avrei saputo dirlo meglio.

Mi correggo: posso.

```
chatGPT produce testo 'finito' combinando chunks testuali del cui
significato non sa nulla, in modo statisticamente coerente con l'uso
di questi chunks nei testi con cui è stato programmato.
```

I software NON apprendono.

La programmazione statistica NON è apprendimento.
L'apprendimento è una esperienza umana.

Non va proiettata sulle macchine, pena l'alienazione cibernetica,
la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.


L'informazione è un esperienza soggettiva di pensiero comunicabile,
per cui il linguaggio utilizzato determina lo spazio delle
interpretazioni possibili della realtà per ciascuna mente umana.

Per questo le parole sono importanti...


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301211020440164961&URLID=2&ESV=10.0.18.7423&IV=59AFF52A432017CC5F7069D19110F765&TT=1674296445670&ESN=ga%2BH3zaVA1TJtXxVjEmMU%2BaQfniiniD9Pas9y9rnw1U%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=B2026EF1A2C2FAA409B7F8D872D50277015751875002C5EA07DC4DFB688BE8E6>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to