Grazie a entrambi della definizione.

La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per 
chi sappia di cosa si tratta
(le persone sono abituate a considerare affidabile, ad esempio, un'operazione 
matematica svolta da una macchina,
sebbene questa non ne conosca il significato,
e un sistema probabilistico darà invece allegramente1 risultati corretti e 
scorretti inestricabilmente combinati):


ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,

in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano 
statisticamente simili alle risposte corrette.


L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e 
dunque genera maggior profitto, non perché funzioni;
perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo 
già  psicoterapeuti chatbot, a pagamento),
a meno che non intervenga il diritto  (e qui si spiega l'utilità di una cattura 
culturale, con le narrazioni magiche, per tenere alla larga la regolazione 
giuridica):

<https://t.co/ESv9Z1IgKm>

Buon fine settimana,
Daniela


1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
tanto allegramente quanto verso qualsiasi altra destinazione." (William James)




________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo Tesio 
<giac...@tesio.it>
Inviato: sabato 21 gennaio 2023 01:44
A: maurizio lana
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ChatGpt e la scuola

On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:

> > chatGPT produce testo 'finito' combinando chunks testuali del cui
> > significato non sa nulla, in modo statisticamente coerente con l'uso
> > di questi chunks nei testi da cui ha appreso.
>
> Credo che non avrei saputo dirlo meglio.

Mi correggo: posso.

```
chatGPT produce testo 'finito' combinando chunks testuali del cui
significato non sa nulla, in modo statisticamente coerente con l'uso
di questi chunks nei testi con cui è stato programmato.
```

I software NON apprendono.

La programmazione statistica NON è apprendimento.
L'apprendimento è una esperienza umana.

Non va proiettata sulle macchine, pena l'alienazione cibernetica,
la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.


L'informazione è un esperienza soggettiva di pensiero comunicabile,
per cui il linguaggio utilizzato determina lo spazio delle
interpretazioni possibili della realtà per ciascuna mente umana.

Per questo le parole sono importanti...


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to