Forse la confusione può essere evitata sostituendo la seconda occorrenza di 
"risposte"

```
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato. 

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole 
che siano statisticamente simili a quelle presenti nei testi scelti dai 
programmatori. 
```

Lascerei la prima occorrenza solo perché all'interno di una negazione.

Altrimenti "risposte" presupporrebbe la comprensione della domanda, producendo
un'analoga proiezione sulla macchina di un'esperienza umana.

"corrette" potrebbe essere omesso del tutto: non sono proprio risposte.

Sono solo sequenze di caratteri selezionati automaticamente per essere confuse
dal lettore con risposte alle sue domanda.


Giacomo


Il 21 Gennaio 2023 17:04:06 CET, Daniela Tafani <daniela.taf...@unipi.it> ha 
scritto:
>Hai ragione, Giacomo, la tua osservazione è ineccepibile.
>
>
>Temo però che "risposte scelte dai programmatori" sia fuorviante, per i non 
>addetti ai lavori:
>
>fa pensare a un sottostante catalogo di domande e risposte.
>
>
>Non dà conto, cioè, del carattere probabilistico,
>
>che è invece fondamentale presentare chiaramente
>
>(se non vogliamo continuare a sentire repliche, che ho ricevuto anche da 
>colleghi, quali:
>
>"Se ci sono errori, li correggeranno. Gli errori non sono certo una ragione 
>per non utilizzare sistemi di IA
>per le decisioni giudiziarie, considerato che sbaglieranno di certo meno dei 
>giudici umani,
>
>che ti condannano se sono affamati'")
>
>
>Il risultato dipende dai dati e dal processo di calibrazione statistica;
>
>il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di 
>pesi e parametri che dipendono
>
>da una serie di  scelte (vuoi abbassare il tasso di falsi positivi, rispetto 
>al target, accettando, con ciò, che diminuisca il tasso dei falsi positivi?).
>
>Ma è un esito non trasparente, su cui non si può intervenire correggendo gli 
>errori come in un sistema simbolico.
>
>
>Ci riflettiamo e troviamo una nuova versione?
>
>
>________________________________
>Da: Giacomo Tesio <giac...@tesio.it>
>Inviato: sabato 21 gennaio 2023 12:31
>A: Daniela Tafani; maurizio lana
>Cc: nexa@server-nexa.polito.it
>Oggetto: Re: [nexa] ChatGpt e la scuola
>
>Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte 
>"corrette" non è... corretto.
>
>Propongo:
>```
>ChatGPT produce testo 'finito' combinando stringhe di testo del cui 
>significato non sa nulla,
>in modo statisticamente coerente con l'uso di queste stringhe nei testi con 
>cui è stato programmato.
>
>Il testo prodotto non ha perciò alcun valore informativo o intento 
>comunicativo.
>
>ChatGPT non è programmato per produrre risposte corrette, ma sequenze di 
>parole che siano statisticamente simili alle risposte scelte dai programmatori.
>```
>
>Qualcuno obietterà che i programnatori in questione (pomposamente definiti
>"data scientists" per promuovere un framework interpretativo 
>deresponsabilizzante nei
>confronti delle aziende che li pagano) non "scelgono" i dati utilizzati 
>durante la
>programmazione statistica ma al massimo li "selezionano" (da cui l'espressione 
>"selection bias").
>
>
>Balle.
>
>Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un 
>processo di
>programmazione statistica.
>Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una 
>scelta politica.
>La scelta di imporre meccanicamente il mantenimento dello status quo.
>
>
>Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un 
>linguaggio
>di programmazione per un processo di programmazione intellettuale.
>
>I linguaggi di programmazione turing complete sono intercambiabili: è sempre 
>possibile
>(ancorché costoso) riscrivere un software in un altro linguaggio.
>
>Lo stesso non si può mai affermare con i software programmati statisticamente.
>
>La scelta dei dati da utilizzare è la modalità di questa forma di 
>programmazione.
>
>I dati sono infatti il codice sorgente dei software programmati statisticamente
>(impropriamente detti "modelli AI").
>
>Tale software viene programmato (e spesso eseguito) tramite macchine virtuali 
>a loro
>volta programmate in un linguaggio di programmazione (tipicamente R o Python)
>e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
>
>Ma si tratta semplicemente di due codici sorgenti diversi che non vanno 
>confusi:
>
>- quello della macchina virtuale programmabile statisticamente (scritto in 
>Python o R o altro)
>  ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
>
>- quello del software eseguibile da tale macchina virtuale, "scritto" tramite 
>la scelta
>  dei dataset di partenza e compilato attraverso il processo di programmazione 
> statistica
>  per l'architettura della macchina virtuale precedentemente programmata.
>
>
>Sempre programmazione è.
>Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
>
>
>
>Giacomo
>
>
>
>Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it> ha 
>scritto:
>
>Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
>
>
>ChatGPT produce testo 'finito' combinando stringhe di testo del cui 
>significato non sa nulla,
>
>in modo statisticamente coerente con l'uso di queste stringhe nei testi con 
>cui è stato programmato.
>
>Il testo prodotto non ha perciò alcun valore informativo o intento 
>comunicativo.
>
>ChatGPT non è programmato per produrre risposte corrette, ma sequenze di 
>parole che siano statisticamente simili alle risposte corrette.
>
>
>(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
>
>
>________________________________
>Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela Tafani 
><daniela.taf...@unipi.it>
>Inviato: sabato 21 gennaio 2023 10:31
>A: Giacomo Tesio; maurizio lana
>Cc: nexa@server-nexa.polito.it
>Oggetto: Re: [nexa] ChatGpt e la scuola
>
>
>Grazie a entrambi della definizione.
>
>La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo 
>per chi sappia di cosa si tratta
>(le persone sono abituate a considerare affidabile, ad esempio, un'operazione 
>matematica svolta da una macchina,
>sebbene questa non ne conosca il significato,
>e un sistema probabilistico darà invece allegramente1 risultati corretti e 
>scorretti inestricabilmente combinati):
>
>
>ChatGPT produce testo 'finito' combinando stringhe di testo del cui 
>significato non sa nulla,
>
>in modo statisticamente coerente con l'uso di queste stringhe nei testi con 
>cui è stato programmato.
>
>Il testo prodotto non ha perciò alcun valore informativo o intento 
>comunicativo.
>
>ChatGPT non è programmato per produrre risposte corrette, ma risposte che 
>siano statisticamente simili alle risposte corrette.
>
>
>L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e 
>dunque genera maggior profitto, non perché funzioni;
>perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo 
>già  psicoterapeuti chatbot, a pagamento),
>a meno che non intervenga il diritto  (e qui si spiega l'utilità di una 
>cattura culturale, con le narrazioni magiche, per tenere alla larga la 
>regolazione giuridica):
>
><https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>>
>
>Buon fine settimana,
>Daniela
>
>
>1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
>tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
>
>
>
>
>________________________________
>Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo Tesio 
><giac...@tesio.it>
>Inviato: sabato 21 gennaio 2023 01:44
>A: maurizio lana
>Cc: nexa@server-nexa.polito.it
>Oggetto: Re: [nexa] ChatGpt e la scuola
>
>On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
>
>> > chatGPT produce testo 'finito' combinando chunks testuali del cui
>> > significato non sa nulla, in modo statisticamente coerente con l'uso
>> > di questi chunks nei testi da cui ha appreso.
>>
>> Credo che non avrei saputo dirlo meglio.
>
>Mi correggo: posso.
>
>```
>chatGPT produce testo 'finito' combinando chunks testuali del cui
>significato non sa nulla, in modo statisticamente coerente con l'uso
>di questi chunks nei testi con cui è stato programmato.
>```
>
>I software NON apprendono.
>
>La programmazione statistica NON è apprendimento.
>L'apprendimento è una esperienza umana.
>
>Non va proiettata sulle macchine, pena l'alienazione cibernetica,
>la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
>
>
>L'informazione è un esperienza soggettiva di pensiero comunicabile,
>per cui il linguaggio utilizzato determina lo spazio delle
>interpretazioni possibili della realtà per ciascuna mente umana.
>
>Per questo le parole sono importanti...
>
>
>Giacomo
>_______________________________________________
>nexa mailing list
>nexa@server-nexa.polito.it
>https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to