> Non se ne esce se non iniziamo ad insegnare informatica a scuola dalla
prima elementare (come scrive Giacomo Tesio)

Io darei una letta veloce pure a Saussure e Wittgenstein

G.

On Sat, 21 Jan 2023 at 17:04, Daniela Tafani <daniela.taf...@unipi.it>
wrote:

> Hai ragione, Giacomo, la tua osservazione è ineccepibile.
>
>
> Temo però che "risposte scelte dai programmatori" sia fuorviante, per i
> non addetti ai lavori:
>
> fa pensare a un sottostante catalogo di domande e risposte.
>
>
> Non dà conto, cioè, del carattere probabilistico,
>
> che è invece fondamentale presentare chiaramente
>
> (se non vogliamo continuare a sentire repliche, che ho ricevuto anche da
> colleghi, quali:
>
> "Se ci sono errori, li correggeranno. Gli errori non sono certo una
> ragione per non utilizzare sistemi di IA
> per le decisioni giudiziarie, considerato che sbaglieranno di certo meno
> dei giudici umani,
>
> che ti condannano se sono affamati'")
>
> Il risultato dipende dai dati e dal processo di calibrazione statistica;
>
> il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di
> pesi e parametri che dipendono
>
> da una serie di  scelte (vuoi abbassare il tasso di falsi positivi,
> rispetto al target, accettando, con ciò, che diminuisca il tasso dei falsi
> positivi?).
>
> Ma è un esito non trasparente, su cui non si può intervenire correggendo
> gli errori come in un sistema simbolico.
>
>
> Ci riflettiamo e troviamo una nuova versione?
>
>
> ------------------------------
> *Da:* Giacomo Tesio <giac...@tesio.it>
> *Inviato:* sabato 21 gennaio 2023 12:31
> *A:* Daniela Tafani; maurizio lana
> *Cc:* nexa@server-nexa.polito.it
> *Oggetto:* Re: [nexa] ChatGpt e la scuola
>
> Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte
> "corrette" non è... corretto.
>
> Propongo:
> ```
> ChatGPT produce testo 'finito' combinando stringhe di testo del
> cui significato non sa nulla,
> in modo statisticamente coerente con l'uso di queste stringhe nei testi
> con cui è stato programmato.
>
> Il testo prodotto non ha perciò alcun valore informativo o intento
> comunicativo.
>
> ChatGPT non è programmato per produrre risposte corrette, ma sequenze di
> parole che siano statisticamente simili alle risposte scelte dai
> programmatori.
> ```
>
> Qualcuno obietterà che i programnatori in questione (pomposamente definiti
> "data scientists" per promuovere un framework interpretativo
> deresponsabilizzante nei
> confronti delle aziende che li pagano) non "scelgono" i dati utilizzati
> durante la
> programmazione statistica ma al massimo li "selezionano" (da cui
> l'espressione "selection bias").
>
>
> Balle.
>
> Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui
> basare un processo di
> programmazione statistica.
> Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è
> una scelta politica.
> La scelta di imporre meccanicamente il mantenimento dello status quo.
>
>
> Anzi, si tratta di una scelta molto più politica rispetto alla selezione
> di un linguaggio
> di programmazione per un processo di programmazione intellettuale.
>
> I linguaggi di programmazione turing complete sono intercambiabili: è
> sempre possibile
> (ancorché costoso) riscrivere un software in un altro linguaggio.
>
> Lo stesso non si può mai affermare con i software programmati
> statisticamente.
>
> La scelta dei dati da utilizzare è la modalità di questa forma di
> programmazione.
>
> I dati sono infatti il codice sorgente dei software programmati
> statisticamente
> (impropriamente detti "modelli AI").
>
> Tale software viene programmato (e spesso eseguito) tramite macchine
> virtuali a loro
> volta programmate in un linguaggio di programmazione (tipicamente R o
> Python)
> e dunque espresse in un diverso codice sorgente (questa volta
> intellegibile).
>
> Ma si tratta semplicemente di due codici sorgenti diversi che non vanno
> confusi:
>
> - quello della macchina virtuale programmabile statisticamente (scritto in
> Python o R o altro)
>   ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
>
> - quello del software eseguibile da tale macchina virtuale, "scritto"
> tramite la scelta
>   dei dataset di partenza e compilato attraverso il processo di
> programmazione statistica
>   per l'architettura della macchina virtuale precedentemente programmata.
>
>
> Sempre programmazione è.
> Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
>
>
>
> Giacomo
>
>
>
> Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it>
> ha scritto:
>>
>> Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
>>
>>
>> ChatGPT produce testo 'finito' combinando stringhe di testo del cui
>> significato non sa nulla,
>>
>> in modo statisticamente coerente con l'uso di queste stringhe nei testi
>> con cui è stato programmato.
>>
>> Il testo prodotto non ha perciò alcun valore informativo o intento
>> comunicativo.
>>
>> ChatGPT non è programmato per produrre risposte corrette, ma *sequenze
>> di parole* che siano statisticamente simili alle risposte corrette.
>>
>> (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon
>> Ayre)
>>
>>
>>
>> ------------------------------
>> *Da:* nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela
>> Tafani <daniela.taf...@unipi.it>
>> *Inviato:* sabato 21 gennaio 2023 10:31
>> *A:* Giacomo Tesio; maurizio lana
>> *Cc:* nexa@server-nexa.polito.it
>> *Oggetto:* Re: [nexa] ChatGpt e la scuola
>>
>>
>> Grazie a entrambi della definizione.
>>
>> La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate
>> solo per chi sappia di cosa si tratta
>> (le persone sono abituate a considerare affidabile, ad esempio,
>> un'operazione matematica svolta da una macchina,
>> sebbene questa non ne conosca il significato,
>> e un sistema probabilistico darà invece allegramente1 risultati corretti
>> e scorretti inestricabilmente combinati):
>>
>>
>> ChatGPT produce testo 'finito' combinando stringhe di testo del cui
>> significato non sa nulla,
>>
>> in modo statisticamente coerente con l'uso di queste stringhe nei testi
>> con cui è stato programmato.
>>
>> Il testo prodotto non ha perciò alcun valore informativo o intento
>> comunicativo.
>>
>> ChatGPT non è programmato per produrre risposte corrette, ma risposte
>> che siano statisticamente simili alle risposte corrette.
>>
>>
>> L'automazione del lavoro ha luogo comunque, semplicemente perché costa
>> meno, e dunque genera maggior profitto, non perché funzioni;
>> perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e
>> abbiamo già  psicoterapeuti chatbot, a pagamento),
>> a meno che non intervenga il diritto  (e qui si spiega l'utilità di una
>> cattura culturale, con le narrazioni magiche, per tenere alla larga la
>> regolazione giuridica):
>>
>> <https://t.co/ESv9Z1IgKm
>> <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>
>> >
>>
>> Buon fine settimana,
>> Daniela
>>
>>
>> 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
>> tanto allegramente quanto verso qualsiasi altra destinazione." (William
>> James)
>>
>>
>>
>>
>> ------------------------------
>> *Da:* nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo
>> Tesio <giac...@tesio.it>
>> *Inviato:* sabato 21 gennaio 2023 01:44
>> *A:* maurizio lana
>> *Cc:* nexa@server-nexa.polito.it
>> *Oggetto:* Re: [nexa] ChatGpt e la scuola
>>
>> On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
>>
>> > > chatGPT produce testo 'finito' combinando chunks testuali del cui
>> > > significato non sa nulla, in modo statisticamente coerente con l'uso
>> > > di questi chunks nei testi da cui ha appreso.
>> >
>> > Credo che non avrei saputo dirlo meglio.
>>
>> Mi correggo: posso.
>>
>> ```
>> chatGPT produce testo 'finito' combinando chunks testuali del cui
>> significato non sa nulla, in modo statisticamente coerente con l'uso
>> di questi chunks nei testi con cui è stato programmato.
>> ```
>>
>> I software NON apprendono.
>>
>> La programmazione statistica NON è apprendimento.
>> L'apprendimento è una esperienza umana.
>>
>> Non va proiettata sulle macchine, pena l'alienazione cibernetica,
>> la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
>>
>>
>> L'informazione è un esperienza soggettiva di pensiero comunicabile,
>> per cui il linguaggio utilizzato determina lo spazio delle
>> interpretazioni possibili della realtà per ciascuna mente umana.
>>
>> Per questo le parole sono importanti...
>>
>>
>> Giacomo
>> _______________________________________________
>> nexa mailing list
>> nexa@server-nexa.polito.it
>>
>> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
>>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to