> Non se ne esce se non iniziamo ad insegnare informatica a scuola dalla prima elementare (come scrive Giacomo Tesio)
Io darei una letta veloce pure a Saussure e Wittgenstein G. On Sat, 21 Jan 2023 at 17:04, Daniela Tafani <daniela.taf...@unipi.it> wrote: > Hai ragione, Giacomo, la tua osservazione è ineccepibile. > > > Temo però che "risposte scelte dai programmatori" sia fuorviante, per i > non addetti ai lavori: > > fa pensare a un sottostante catalogo di domande e risposte. > > > Non dà conto, cioè, del carattere probabilistico, > > che è invece fondamentale presentare chiaramente > > (se non vogliamo continuare a sentire repliche, che ho ricevuto anche da > colleghi, quali: > > "Se ci sono errori, li correggeranno. Gli errori non sono certo una > ragione per non utilizzare sistemi di IA > per le decisioni giudiziarie, considerato che sbaglieranno di certo meno > dei giudici umani, > > che ti condannano se sono affamati'") > > Il risultato dipende dai dati e dal processo di calibrazione statistica; > > il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di > pesi e parametri che dipendono > > da una serie di scelte (vuoi abbassare il tasso di falsi positivi, > rispetto al target, accettando, con ciò, che diminuisca il tasso dei falsi > positivi?). > > Ma è un esito non trasparente, su cui non si può intervenire correggendo > gli errori come in un sistema simbolico. > > > Ci riflettiamo e troviamo una nuova versione? > > > ------------------------------ > *Da:* Giacomo Tesio <giac...@tesio.it> > *Inviato:* sabato 21 gennaio 2023 12:31 > *A:* Daniela Tafani; maurizio lana > *Cc:* nexa@server-nexa.polito.it > *Oggetto:* Re: [nexa] ChatGpt e la scuola > > Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte > "corrette" non è... corretto. > > Propongo: > ``` > ChatGPT produce testo 'finito' combinando stringhe di testo del > cui significato non sa nulla, > in modo statisticamente coerente con l'uso di queste stringhe nei testi > con cui è stato programmato. > > Il testo prodotto non ha perciò alcun valore informativo o intento > comunicativo. > > ChatGPT non è programmato per produrre risposte corrette, ma sequenze di > parole che siano statisticamente simili alle risposte scelte dai > programmatori. > ``` > > Qualcuno obietterà che i programnatori in questione (pomposamente definiti > "data scientists" per promuovere un framework interpretativo > deresponsabilizzante nei > confronti delle aziende che li pagano) non "scelgono" i dati utilizzati > durante la > programmazione statistica ma al massimo li "selezionano" (da cui > l'espressione "selection bias"). > > > Balle. > > Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui > basare un processo di > programmazione statistica. > Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è > una scelta politica. > La scelta di imporre meccanicamente il mantenimento dello status quo. > > > Anzi, si tratta di una scelta molto più politica rispetto alla selezione > di un linguaggio > di programmazione per un processo di programmazione intellettuale. > > I linguaggi di programmazione turing complete sono intercambiabili: è > sempre possibile > (ancorché costoso) riscrivere un software in un altro linguaggio. > > Lo stesso non si può mai affermare con i software programmati > statisticamente. > > La scelta dei dati da utilizzare è la modalità di questa forma di > programmazione. > > I dati sono infatti il codice sorgente dei software programmati > statisticamente > (impropriamente detti "modelli AI"). > > Tale software viene programmato (e spesso eseguito) tramite macchine > virtuali a loro > volta programmate in un linguaggio di programmazione (tipicamente R o > Python) > e dunque espresse in un diverso codice sorgente (questa volta > intellegibile). > > Ma si tratta semplicemente di due codici sorgenti diversi che non vanno > confusi: > > - quello della macchina virtuale programmabile statisticamente (scritto in > Python o R o altro) > ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...) > > - quello del software eseguibile da tale macchina virtuale, "scritto" > tramite la scelta > dei dataset di partenza e compilato attraverso il processo di > programmazione statistica > per l'architettura della macchina virtuale precedentemente programmata. > > > Sempre programmazione è. > Sempre opera dell'uomo che deve rispondere di ogni output prodotto. > > > > Giacomo > > > > Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it> > ha scritto: >> >> Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: >> >> >> ChatGPT produce testo 'finito' combinando stringhe di testo del cui >> significato non sa nulla, >> >> in modo statisticamente coerente con l'uso di queste stringhe nei testi >> con cui è stato programmato. >> >> Il testo prodotto non ha perciò alcun valore informativo o intento >> comunicativo. >> >> ChatGPT non è programmato per produrre risposte corrette, ma *sequenze >> di parole* che siano statisticamente simili alle risposte corrette. >> >> (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon >> Ayre) >> >> >> >> ------------------------------ >> *Da:* nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela >> Tafani <daniela.taf...@unipi.it> >> *Inviato:* sabato 21 gennaio 2023 10:31 >> *A:* Giacomo Tesio; maurizio lana >> *Cc:* nexa@server-nexa.polito.it >> *Oggetto:* Re: [nexa] ChatGpt e la scuola >> >> >> Grazie a entrambi della definizione. >> >> La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate >> solo per chi sappia di cosa si tratta >> (le persone sono abituate a considerare affidabile, ad esempio, >> un'operazione matematica svolta da una macchina, >> sebbene questa non ne conosca il significato, >> e un sistema probabilistico darà invece allegramente1 risultati corretti >> e scorretti inestricabilmente combinati): >> >> >> ChatGPT produce testo 'finito' combinando stringhe di testo del cui >> significato non sa nulla, >> >> in modo statisticamente coerente con l'uso di queste stringhe nei testi >> con cui è stato programmato. >> >> Il testo prodotto non ha perciò alcun valore informativo o intento >> comunicativo. >> >> ChatGPT non è programmato per produrre risposte corrette, ma risposte >> che siano statisticamente simili alle risposte corrette. >> >> >> L'automazione del lavoro ha luogo comunque, semplicemente perché costa >> meno, e dunque genera maggior profitto, non perché funzioni; >> perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e >> abbiamo già psicoterapeuti chatbot, a pagamento), >> a meno che non intervenga il diritto (e qui si spiega l'utilità di una >> cattura culturale, con le narrazioni magiche, per tenere alla larga la >> regolazione giuridica): >> >> <https://t.co/ESv9Z1IgKm >> <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6> >> > >> >> Buon fine settimana, >> Daniela >> >> >> 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto >> tanto allegramente quanto verso qualsiasi altra destinazione." (William >> James) >> >> >> >> >> ------------------------------ >> *Da:* nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo >> Tesio <giac...@tesio.it> >> *Inviato:* sabato 21 gennaio 2023 01:44 >> *A:* maurizio lana >> *Cc:* nexa@server-nexa.polito.it >> *Oggetto:* Re: [nexa] ChatGpt e la scuola >> >> On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote: >> >> > > chatGPT produce testo 'finito' combinando chunks testuali del cui >> > > significato non sa nulla, in modo statisticamente coerente con l'uso >> > > di questi chunks nei testi da cui ha appreso. >> > >> > Credo che non avrei saputo dirlo meglio. >> >> Mi correggo: posso. >> >> ``` >> chatGPT produce testo 'finito' combinando chunks testuali del cui >> significato non sa nulla, in modo statisticamente coerente con l'uso >> di questi chunks nei testi con cui è stato programmato. >> ``` >> >> I software NON apprendono. >> >> La programmazione statistica NON è apprendimento. >> L'apprendimento è una esperienza umana. >> >> Non va proiettata sulle macchine, pena l'alienazione cibernetica, >> la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. >> >> >> L'informazione è un esperienza soggettiva di pensiero comunicabile, >> per cui il linguaggio utilizzato determina lo spazio delle >> interpretazioni possibili della realtà per ciascuna mente umana. >> >> Per questo le parole sono importanti... >> >> >> Giacomo >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> >> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9 >> > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa