Caro Alessandro, grazie dell'osservazione, che coglie un aspetto importante: i testi prodotti da ChatGPT hanno il significato che attribuiscono loro gli esseri umani che li leggono, come ha appena ricordato Enrico Nardelli.
Il valore informativo di questi testi, invece, è nullo, perché si trovano mescolate inestricabilmente, nel medesimo testo, stringhe di testo o di codice valutate dagli esseri umani come corrette e stringhe che che gli esseri umani, unanimemente e a buon diritto, considerano sbagliate (sorvolando qui sulle questioni opinabili). Gary Marcus ha riciclato una metafora disgustosa, ma abbastanza efficace: i testi prodotti da ChatGPT sono come una raffinata pietanza (aspetto da non sottovalutare) in cui ogni volta sia stata mescolata una palla più o meno piccola di escrementi. A differenza di quanto accadrebbe col cibo, tuttavia, nei testi prodotti da ChatGPT possiamo separare le parti corrette da quelle sbagliate, ma solo nei casi in cui possediamo già, indipendentemente da ChatGPT, tutte le informazioni necessarie: solo per fare un paio di esempi tra i tanti, in alcune prove dei miei studenti, alla richiesta di scrivere una breve biografia di Pelé, è stato prodotto un testo plausibile, salvo che lo dava per morto nel 2020; alla richiesta di scrivere qualche riga sulla figura di don Rodrigo, è stato prodotto un testo corretto, salvo che per la frase "don Rodrigo è il padre di Lucia". Si tratta di una caratteristica ormai ampiamente documentata e del tutto coerente con la natura di questi sistemi, che ricuciono le stringhe di testo rilevate nei dati di partenza sulla base di informazioni probabilistiche su come si combinano. E, punto che sfugge a chi non conosca la natura di questi sistemi (me lo ha fatto notare qualche tempo fa Giuseppe Attardi e se ne occupa diffusamente Louise Amoore, Cloud Ethics, 2020), "don Rodrigo è il padre di Lucia" non è un errore: è anzi il momento in cui possiamo intravedere il modo in cui il sistema funziona. Dal punto di vista tecnico, la morte di Elaine Herzberg - uccisa da un veicolo "autonomo" - non è un errore: è, come è stato osservato da un CEO, l'aggiunta di un nuovo "data point" (lo racconta Jack Stilgoe in Who's driving innovation?, 2020). Il problema è che ormai si dà per buono un modo di produzione impregnato di determinismo e soluzionismo tecnologici, che risolve senza averla prima esaminata la questione sull'opportunità, l'utilità e i costi dello sviluppo di alcuni sistemi. Anzi, li rilascia anzitempo, per far compiere gratuitamente alla collettività tutto il lavoro di test. Non a caso, si parla di colonialismo digitale, per l'esproprio del nostro lavoro, oltre che di quello, di cui abbiamo parlato nei giorni scorsi, delle persone la cui salute mentale sarà distrutta dalla visione o lettura ininterrotta di video e testi su stupri, torture e violenze di ogni genere. Non si tratta solo della questione (fondamentale) della retribuzione o gratuità del lavoro o delle conseguenze di simili attività (agli ignari compratori della Tesla erano tacitamente affidati i test per lo sviluppo di un prodotto al momento inesistente - come riportano le recenti cronache giudiziarie - e ad alcuni di loro il test è costato la vita). Si tratta anche dell'agenda della ricerca, per usare un termine in voga: come osserva Timnit Gebru, le energie dei ricercatori sono tutte convogliate verso una truffa colossale - e con ciò distolte da un lavoro su ricerche diverse - sia che essi siano complici, sia che debbano lavorare per mostrare puntualmente, ogni volta esaminando un sistema nuovo ma con i medesimi effetti dei precedenti, le conseguenze indesiderate e i danni sociali. Di certo ho scritto troppo. Spero di aver almeno risposto alla domanda. Un saluto, Daniela ______________________________ Da: Alessandro Brolpito <abrolp...@gmail.com> Inviato: sabato 21 gennaio 2023 11:20 A: Daniela Tafani Cc: Giacomo Tesio; maurizio lana; nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola Grazie Daniela, Mi chiedo solo se il valore informativo non dipenda anche da chi legge e che sia difficile affermare questo in assoluto, domanda "vera" per capire meglio i limiti dell'AI... Alessandro On Sat, 21 Jan 2023 at 10:38, Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>> wrote: Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette. (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre) ________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it<mailto:nexa-boun...@server-nexa.polito.it>> per conto di Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati): ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette. L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica): <https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>> Buon fine settimana, Daniela 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James) ________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it<mailto:nexa-boun...@server-nexa.polito.it>> per conto di Giacomo Tesio <giac...@tesio.it<mailto:giac...@tesio.it>> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote: > > chatGPT produce testo 'finito' combinando chunks testuali del cui > > significato non sa nulla, in modo statisticamente coerente con l'uso > > di questi chunks nei testi da cui ha appreso. > > Credo che non avrei saputo dirlo meglio. Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9 _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301211020440164961&URLID=2&ESV=10.0.18.7423&IV=59AFF52A432017CC5F7069D19110F765&TT=1674296445670&ESN=ga%2BH3zaVA1TJtXxVjEmMU%2BaQfniiniD9Pas9y9rnw1U%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=B2026EF1A2C2FAA409B7F8D872D50277015751875002C5EA07DC4DFB688BE8E6> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa