Hai ragione, Giacomo, la tua osservazione è ineccepibile.

Temo però che "risposte scelte dai programmatori" sia fuorviante, per i non 
addetti ai lavori:

fa pensare a un sottostante catalogo di domande e risposte.


Non dà conto, cioè, del carattere probabilistico,

che è invece fondamentale presentare chiaramente

(se non vogliamo continuare a sentire repliche, che ho ricevuto anche da 
colleghi, quali:

"Se ci sono errori, li correggeranno. Gli errori non sono certo una ragione per 
non utilizzare sistemi di IA
per le decisioni giudiziarie, considerato che sbaglieranno di certo meno dei 
giudici umani,

che ti condannano se sono affamati'")


Il risultato dipende dai dati e dal processo di calibrazione statistica;

il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di pesi 
e parametri che dipendono

da una serie di  scelte (vuoi abbassare il tasso di falsi positivi, rispetto al 
target, accettando, con ciò, che diminuisca il tasso dei falsi positivi?).

Ma è un esito non trasparente, su cui non si può intervenire correggendo gli 
errori come in un sistema simbolico.


Ci riflettiamo e troviamo una nuova versione?


________________________________
Da: Giacomo Tesio <giac...@tesio.it>
Inviato: sabato 21 gennaio 2023 12:31
A: Daniela Tafani; maurizio lana
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ChatGpt e la scuola

Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" 
non è... corretto.

Propongo:
```
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole 
che siano statisticamente simili alle risposte scelte dai programmatori.
```

Qualcuno obietterà che i programnatori in questione (pomposamente definiti
"data scientists" per promuovere un framework interpretativo 
deresponsabilizzante nei
confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante 
la
programmazione statistica ma al massimo li "selezionano" (da cui l'espressione 
"selection bias").


Balle.

Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un 
processo di
programmazione statistica.
Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una 
scelta politica.
La scelta di imporre meccanicamente il mantenimento dello status quo.


Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un 
linguaggio
di programmazione per un processo di programmazione intellettuale.

I linguaggi di programmazione turing complete sono intercambiabili: è sempre 
possibile
(ancorché costoso) riscrivere un software in un altro linguaggio.

Lo stesso non si può mai affermare con i software programmati statisticamente.

La scelta dei dati da utilizzare è la modalità di questa forma di 
programmazione.

I dati sono infatti il codice sorgente dei software programmati statisticamente
(impropriamente detti "modelli AI").

Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a 
loro
volta programmate in un linguaggio di programmazione (tipicamente R o Python)
e dunque espresse in un diverso codice sorgente (questa volta intellegibile).

Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:

- quello della macchina virtuale programmabile statisticamente (scritto in 
Python o R o altro)
  ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)

- quello del software eseguibile da tale macchina virtuale, "scritto" tramite 
la scelta
  dei dataset di partenza e compilato attraverso il processo di programmazione 
statistica
  per l'architettura della macchina virtuale precedentemente programmata.


Sempre programmazione è.
Sempre opera dell'uomo che deve rispondere di ogni output prodotto.



Giacomo



Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.taf...@unipi.it> ha 
scritto:

Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:


ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,

in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole 
che siano statisticamente simili alle risposte corrette.


(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)


________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Daniela Tafani 
<daniela.taf...@unipi.it>
Inviato: sabato 21 gennaio 2023 10:31
A: Giacomo Tesio; maurizio lana
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ChatGpt e la scuola


Grazie a entrambi della definizione.

La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per 
chi sappia di cosa si tratta
(le persone sono abituate a considerare affidabile, ad esempio, un'operazione 
matematica svolta da una macchina,
sebbene questa non ne conosca il significato,
e un sistema probabilistico darà invece allegramente1 risultati corretti e 
scorretti inestricabilmente combinati):


ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato 
non sa nulla,

in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui 
è stato programmato.

Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.

ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano 
statisticamente simili alle risposte corrette.


L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e 
dunque genera maggior profitto, non perché funzioni;
perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo 
già  psicoterapeuti chatbot, a pagamento),
a meno che non intervenga il diritto  (e qui si spiega l'utilità di una cattura 
culturale, con le narrazioni magiche, per tenere alla larga la regolazione 
giuridica):

<https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>>

Buon fine settimana,
Daniela


1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto
tanto allegramente quanto verso qualsiasi altra destinazione." (William James)




________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giacomo Tesio 
<giac...@tesio.it>
Inviato: sabato 21 gennaio 2023 01:44
A: maurizio lana
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ChatGpt e la scuola

On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:

> > chatGPT produce testo 'finito' combinando chunks testuali del cui
> > significato non sa nulla, in modo statisticamente coerente con l'uso
> > di questi chunks nei testi da cui ha appreso.
>
> Credo che non avrei saputo dirlo meglio.

Mi correggo: posso.

```
chatGPT produce testo 'finito' combinando chunks testuali del cui
significato non sa nulla, in modo statisticamente coerente con l'uso
di questi chunks nei testi con cui è stato programmato.
```

I software NON apprendono.

La programmazione statistica NON è apprendimento.
L'apprendimento è una esperienza umana.

Non va proiettata sulle macchine, pena l'alienazione cibernetica,
la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.


L'informazione è un esperienza soggettiva di pensiero comunicabile,
per cui il linguaggio utilizzato determina lo spazio delle
interpretazioni possibili della realtà per ciascuna mente umana.

Per questo le parole sono importanti...


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396&URLID=1&ESV=10.0.18.7423&IV=8741B14798D38415CCE21ECE656D2E93&TT=1674261863923&ESN=wLDRUwreHYOuALhE5PSJEMJPf1zu%2FlDIeKsZGlZEhMQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=4F1D6A98255ACA2BE0B62F283BD030D8DAFB2B9616977CACB2AC99A512AABCF9
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to