Salve Daniela, Maurizio e Guido. Grazie Daniela della condivisione: come Maurizio anche io colgo una preoccupante e diffusa allucinazione collettiva attorno ai software programmati statisticamente di cui parliamo.
L'articolo di Chiang è brillante nella sua capacità di svelare chiaramente la totale assenza di significato nell'output di questi software. E' triste che debba farlo uno scrittore di fantascienza, ma non è affatto sorprendete che riesca a farlo così bene. L'articolo sorvola però un aspetto che diventa importante sottolineare alla luce di considerazioni come quelle di Guido: sebbene l'output di un LLM non abbia alcun significato (perché, come spiega bene Chiang, il software non dispone di una mente che possa scegliere di esprimerlo), la probabilità dei significati che gli verranno attribuiti dipende principalmente dai testi SCELTI come sorgenti per il processo di programmazione statistica. Il continuo sorvolare sull'intenzionalità di questa scelta (Chiang parla di "text found on the Internet"), nasconde al pensiero coloro che quel software l'hanno programmato compiendo collettivamente miliardi di miliardi decisioni. Gli LLM sono espressione di alcune persone, espressione eseguibile che produce per loro conto un output privo di significato, ma tale da essere interpretato come avente un significato da chi scrive il prompt. Ha ragione Guido quando scrive: On Sun, 1 Sep 2024 23:25:27 +0300 Guido Vetere <vetere.gu...@gmail.com> wrote: > Il senso non è nella macchina che parla, ma nell’essere umano che > l’ascolta. Se questa intuizione fosse recepita, compresa e condivisa, > il discorso sull’IA generativa potrebbe assumere connotati più > interessanti, secondo me. Se tutti avessero piena consapevolezza della totale assenza di significato nell'output prodotto da questi software, si sentirebbero profondamente manipolati e presi in giro dai fornitori del "servizio". Invece assistiamo a Valditara che al telegiornale promette una maggiore personalizzazione dei contenuti per gli studenti disabili grazie all'uso della "intelligenza artificiale". Se tutti comprendessimo ciò di cui parliamo, Valditara non oserebbe proporre di propinare contenuti privi di significato a studenti disabili, sputando sull'articolo 3 della Costituzione. Se tutti avessero piena consapevolezza della totale assenza di significato nell'output di ChatGPT o Gemini, coloro che ne propongono l'adozione nella scuola o negli ospedali verrebbero giustamente trattati come ciarlatani in mala fede. E certamente, il discorso sull'IA generativa assumerebbe connotati molto più interessanti. Ad esempio, gli atti prodotti con l'uso di questi strumenti vanno considerati automaticamente falso ideologico? Quale che sia il prompt, il loro output è privo di significato e la sua presenza in atti che prevedono un significato dovrebbe come minimo invalidarli. > Calvino spostava dunque l’attenzione dalla poiesis (la generatività) > all’ esthesis (la ricettività): si poteva apprezzare l’opera > letteraria automatica non per le virtù degli algoritmi che l’avevano > creata, ma in quanto evocatrice di qualcosa di latente nel soggetto e > nella società. Hai ragione: coloro che programmano un LLM e ne comprendono appieno il funzionamento, possono sottrarsi agli effetti cognitivi del "gioco di imitazione" per cui è ottimizzato. Purtroppo possono farlo solo loro. Alle loro menti, l'output può evocare qualcosa di latente in loro e nella società... e che loro hanno messo nei testi sorgente. :-) Tutti gli altri, costretti a limitarsi alla "esthesis", ne saranno ingannati, attribuendo significati probabilisticamente prestabiliti dagli sviluppatori... a qualcosa che non ne ha. Cui prodest? Giacomo