Buongiorno,
Premesso che concordo al 100% sulle definizioni che avete dato (io non avrei saputo fare di meglio di sicuro). Su questo l’articolo, con tutti i suoi limiti (in primis il titolo, orribile!), chiarisce bene nella prefazione che *“ChatGPT ci dimostra che l’IA è in grado di fornire indicazioni sulla base di una domanda, restituendo un quadro coerente, ma è privo della capacità di contestualizzazione quindi non ci fornisce un testo che apra prospettive che non siano puramente descrittive. Questo sa farlo solo l’uomo, se conosce la testologia semiotica”* Ma propongo una cosa: proviamo a muovere la discussione da una sfida “macchina vs uomo” a queste domanda: *può l’uso di tool come Chat Gbt aiutare insegnanti e studenti ad avere un’esperienza di apprendimento migliore (dinamiche, coinvolgimento ecc.) o migliorare i risultati di apprendimento (ad es. pensiero critico) in classe (virtuale o reale o ibrida che sia)?* Penso che il lavoro dell’accademico Jànos S.Petöfi, citato nell’articolo, offre degli spunti molto interessanti per rispondere a questa domanda. Penso che un insegnante potrebbe applicare concetti quali “apprendimento basato su domande e ricerca”, “attivazione degli studenti”, “aula capovolta” ecc., attraverso l’uso di Chat Gbt, proprio per i LIMITI di questo strumenti, che dovranno essere scovati dagli stessi studenti attraverso *una esperienza soggettiva* diretta ed applicata, in un ambiente competente garantito dalla scuola e dal loro insegnante che modera e fa domande dirette agli studenti per far scoprire, da loro, i limiti oggettivi delle risposte fornite. Penso che sia utile spiegare cosa sia l’AI in modo semplice e chiaro, usando le vs. parole. Penso che una lezione preparata attorno all’uso di Chat Gbt richieda insegnanti molto preparati sia in termini di competenze digitali e di pedagogia (e ce ne sono). E certamente non penso, anzi lo contesto con tutti i miei mezzi, ogni idea di sostituire insegnati con questi tool, soprattutto nella fase iniziale del percorso educativo. Alessandro On Sat, 21 Jan 2023 at 01:44, Giacomo Tesio <giac...@tesio.it> wrote: > On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote: > > > > chatGPT produce testo 'finito' combinando chunks testuali del cui > > > significato non sa nulla, in modo statisticamente coerente con l'uso > > > di questi chunks nei testi da cui ha appreso. > > > > Credo che non avrei saputo dirlo meglio. > > Mi correggo: posso. > > ``` > chatGPT produce testo 'finito' combinando chunks testuali del cui > significato non sa nulla, in modo statisticamente coerente con l'uso > di questi chunks nei testi con cui è stato programmato. > ``` > > I software NON apprendono. > > La programmazione statistica NON è apprendimento. > L'apprendimento è una esperienza umana. > > Non va proiettata sulle macchine, pena l'alienazione cibernetica, > la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. > > > L'informazione è un esperienza soggettiva di pensiero comunicabile, > per cui il linguaggio utilizzato determina lo spazio delle > interpretazioni possibili della realtà per ciascuna mente umana. > > Per questo le parole sono importanti... > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa