Tra le inutilmente tante cose lette in proposito vi segnalo questo per me
utilissimo contributo di Guido Vetere

https://guidovetere.nova100.ilsole24ore.com/2023/02/11/il-problema-epistemico-delloracolo-artificiale/


Il giorno mar 14 feb 2023 alle 15:28 Daniela Tafani <daniela.taf...@unipi.it>
ha scritto:

> Buongiorno.
>
>
> Forse dovrebbero smettere di dire che chatGPT commette "errori" o
> "sbaglia".
>
>
> Non commette alcun errore, quando ci sembra che ne commetta:
> non sta facendo nulla di diverso da quello che fa sempre.
>
> Anzi, gli "errori" ci consentono di vedere come funziona e che cos'è.
>
>
> Ciò che è fa sì che non si possa usarla per ottenere informazioni o
> soluzioni o risposte.
>
>
> A meno che non si abbia già l'abitudine di affidarsi a una palla magica
> delle risposte.
>
> Un saluto,
>
> Daniela
>
>
>
> ------------------------------
> *Da:* nexa <nexa-boun...@server-nexa.polito.it> per conto di 380° <
> g...@biscuolo.net>
> *Inviato:* martedì 14 febbraio 2023 12:08
> *A:* nexa@server-nexa.polito.it
> *Oggetto:* [nexa] oh quanto è intelligente l'AI! (was Re: ChatGPT: five
> priorities for research)
>
> Buongiorno,
>
> Antonio <anto...@piumarossa.it> writes:
>
> [...]
>
> > E' la /moda/ del momento, mettere alla prova ChatGPT nel superamento di
> > esami scolastici, di abilitazione, test per la selezione del personale,
> > ecc.:
>
> Sì ma _solo_ in lingua inglese, mi raccomando!
>
> Se è per questo si divertono anche a fargli il test IQ:
> https://twitter.com/sergeyi49013776/status/1598430479878856737?lang=en
>
> Leggendo il tweet-thread si vede benissimo che il più grosso problema di
> ChatGPT è quello di non capire le domande... a volte in modo
> incomprensibile per un umano (la sintesi della comprensione sicuramente
> funziona peggio della sintesi della risposta)
>
> Per quanto sia affidabile tale esperimento [3] fatto una volta sola, il
> punteggio IQ è 83 ed è nel ragne "scarso", ma è ragionevole pensare che
> ChatGPT possa essere corretto e fare meglio in un prossimo futuro.
>
> Superficialmente potrebbe sembrare che questi studi siano un modo per
> mettere alla prova ChatGPT ma a pensarci meglio sono i test [4] a essere
> messi alla prova.
>
> Detto in altro modo: se chiedi a un umano di **eseguire**
> schemi/modelli/trucchi sviluppati per massimizzare i _punteggi_ ottenuti
> nei test (standardizzati) di "valutazione", ci sarà **sempre** una
> macchina di Turing in grado di farlo _molto_ meglio.
>
> ...è _scientifico_:
>
> https://www.roars.it/online/il-modello-di-rasch/
>
> «I test INVALSI sono scientificamente solidi? I limiti del modello di
> Rasch»
>
> --8<---------------cut here---------------start------------->8---
>
> [...] Per la quasi totalità dell’opinione pubblica, ma anche degli
> insegnanti e degli accademici, l’elaborazione dei risultati dei test
> standardizzati è una “scatola nera” il cui corretto funzionamento viene
> assunto sulla fiducia. Chi d’altronde avrebbe le competenze per entrare
> nel merito dei marchingegni statistici utilizzati?  Anche chi ne
> contesta l’uso a causa delle distorsioni che provoca nelle politiche
> educative raramente ne mette in dubbio la correttezza.
>
> [...] Estrarre delle informazioni dai test standardizzati non è così
> semplice come leggere la temperatura sulla scala graduata di un
> termometro.
>
> [...] Ora, i termometri dei test PISA e dei test INVALSI si servono
> dello stesso principio di misurazione della “temperatura”, ovvero del
> cosiddetto “modello di Rasch”, che specifica appunto le ipotesi
> matematico-statistiche utilizzate nella procedura di calibrazione.
>
> [...] “The best we can say about Pisa rankings is that they are useless”
> conclude Kreiner.
>
> --8<---------------cut here---------------end--------------->8---
> (l'articolo entra nel merito scientifico, se interessa, compresa la
> fantasmagorica "Oggettività specifica"... e qui entriamo in
> epistemologia)
>
> Validità scientifica o meno, per /qualsiasi/ modello statistico (Rasch o
> altro IRT [5]) utilizzato per costruire test standard ci sarà _sempre_
> (potenzialmente) una macchina di Turing programmata statisticamente
> (detta AI) in grado di ottenere il massimo risultato a quel test... SE
> ha abbastanza dati per sintetizzare una risposta.
>
> --8<---------------cut here---------------start------------->8---
>
> Credo che una discussione organica sui test debba essere fatta sul piano
> più elevato dei rapporti tra strumenti valutativi e processi di
> insegnamento/apprendimento,
>
> --8<---------------cut here---------------end--------------->8---
>
> scrive Enrico Rogora nell'articolo sopra citato
>
> E credo che questa frase sintetizzi il nocciolo della quesitone:
>
> --8<---------------cut here---------------start------------->8---
>
> 3. Standardized tests don’t provide any feedback on how to perform
> better. The results aren’t even given back to the teachers and students
> until months later, and there are no instructions provided by test
> companies on how to improve these test scores.
>
> --8<---------------cut here---------------end--------------->8---
> (tratto da «15 Reasons Why Standardized Tests are Problematic» [6])
>
> Dopotutto ChatGPT o qualsiasi altro sistema SALAMI non saprebbe proprio
> che farsene del "feedback" visto che usa sistemi di "apprendimento"
> statistico invece di apprendere dagli errori.  Ecco perché chiamare
> ChatGPT "generative AI" è definitivamente fuorviante, non genera proprio
> un bel niente... _risequenzia_ (cit).
>
> Aggià che scemo, ma qui stiamo parlando appunto di dare un punteggio per
> fare una classifica, mica di apprendimento... quindi che c'è da stupirsi
> se una istanza AI ottiene punteggi paragonabili a quelli umani e in
> futuro _senza dubbio_ batterà sempre gli umani nei test standardizzati?
>
> Ecco che allora si avvera il sogno dei pre-transumanisti: "siccome nei
> test standardizzati che servono per stabilire chi è più adatto a un
> determinato lavoro l'AI ottiene migliori risultati, allora possiamo fare
> a meno di assumere umani e li sostituiamo con l'AI".
>
> Forse ci dobbiamo fare qualche domanda sul tipo di lavoro che viene
> chiesto agli umani di svolgere?!?
>
>
> https://www.fastcompany.com/90844285/chatgpt-has-an-iq-of-83-yet-its-coming-for-our-jobs
>
> «ChatGPT has an IQ of 83, yet it’s coming for our jobs. What does that
> say about the work we do?»
>
> --8<---------------cut here---------------start------------->8---
>
> It is very likely that many of us will see some of our work replaced by
> AI, and that hurts. But it says absolutely nothing about the people
> working those jobs and whether or not they’re skilled. It says
> everything, however, about our current system and about how inadequate
> many of the jobs that we’ve created are.
>
> If something with an IQ of 83 can take over our jobs, society as a whole
> is not operating at its full potential. I believe that generative AI is
> both a jolting reality check, and a potential solution to help make our
> jobs more meaningful.
>
> Many workers are drowned in menial, repetitive tasks, often carried out
> on autopilot and without much critical thinking.
>
> [...] This kind of repetitive busy work takes up time that could be
> spent doing more meaningful work such as fleshing out that new idea
> you’ve had in the back of your head for months, or exploring an app you
> think could streamline your projects.
>
> As a result, we often stifle our own progress because we’re starved of
> the time and resources to think big.
>
> A lot of repetitive work could eventually be replaced by a ChatGPT bot
> [...]
>
> --8<---------------cut here---------------end--------------->8---
>
> Ovviamente questo ragionamento vale per tutti i compiti ripetitivi che
> possono essere automatizzati, mica solo da ChatGPT... solo che chi
> osanna ChatGPT deve anche capire che la sua capacità di sintesi è
> _limitata_ e che a volte (spesso?) semplicemente sbaglia... e senza
> correggerlo continuerà a sbagliare in eterno... e NON si autocorregge.
>
> Detto in altro modo: se chiedi a un umano _solo_ di **eseguire** il
> lavoro secondo modelli/schemi/trucchi sviluppati (da altri) per
> massimizzare i _punteggi_ ottenuti nei test (standardizzati) di
> "valutazione" della performance lavorativa, ci sarà **sempre** una
> macchina di Turing in grado di farlo _molto_ meglio, ripetizione degli
> errori inclusa.
>
> https://nooscope.ai/
>
> Per parafrasare Enrico Rogora citato sopra: «Credo che una discussione
> organica sul lavoro debba essere fatta sul piano più elevato dei
> rapporti tra strumenti valutativi (del lavoro) e processi di svolgimento
> e apprendimento ("feedback" che accumulato diventa esperienza) e loro
> relazione con la società e la cultura, con particolare attenzione al
> rapporto tra il _valore_ del lavoro e la sua monetizzazione in "valore
> di scambio".»
>
> David Graeber: «Huge swathes of people, in Europe and North America in
> particular, spend their entire working lives performing tasks they
> secretly believe do not really need to be performed» [7]
>
> > ChatGPT can (almost) pass the US Medical Licensing Exam [1]
>
> Ma per forza: copia (e ha la calcolatrice incorporata)! :-D
>
> Date una calcolatrice e accesso illimitato al web a tutti gli esaminandi
> umani a cui somministrate i test e poi vediamo, eh?!? :-P
>
> ...se poi gli esaminandi avessero a disposizione un database con salvate
> **tutte** le enciclopedie del mondo (tra)scritte in RDF e sapessero
> usare le query SPARQL come chattano su Instagram... semplicemente non ci
> sarebbe storia. B-)
>
> [...]
>
> saluti, 380°
>
>
> > [1] https://www.eurekalert.org/news-releases/978878
> > [2]
> >
> https://www.sciencemediacentre.org/expert-reaction-to-study-on-chatgpt-almost-passing-the-us-medical-licensing-exam/
>
> [3]
> https://en.wikipedia.org/wiki/Intelligence_quotient#Reliability_and_validity
>
> [4] attenzione NON ho scritto le valutazioni date da altri umani frutto
> di interrogazioni, compiti in classe, collaborazione, osservazione
> inseriti in un percorso scolastico/lavorativo di diversi mesi e
> anni... cosa a cui NON è stata sottoposta ChatGPT, se qualcuno volesse
> "divertirsi"
>
> [5] https://en.wikipedia.org/wiki/Item_response_theory, non trovo
> nemmeno che tipo di test utilizzi https://iqtest.com/
>
> [6]
> https://www.ascd.org/blogs/15-reasons-why-standardized-tests-are-problematic
>
> [7]
> https://web.archive.org/web/20191211140746/http://www.strike.coop/bullshit-jobs
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
>  non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to