Salve Daniela, Maurizio e Guido.

Grazie Daniela della condivisione: come Maurizio anche io colgo una
preoccupante e diffusa allucinazione collettiva attorno ai software
programmati statisticamente di cui parliamo.

L'articolo di Chiang è brillante nella sua capacità di svelare
chiaramente la totale assenza di significato nell'output di questi
software. E' triste che debba farlo uno scrittore di fantascienza, 
ma non è affatto sorprendete che riesca a farlo così bene.


L'articolo sorvola però un aspetto che diventa importante sottolineare
alla luce di considerazioni come quelle di Guido: sebbene l'output di
un LLM non abbia alcun significato (perché, come spiega bene Chiang,
il software non dispone di una mente che possa scegliere di esprimerlo),
la probabilità dei significati che gli verranno attribuiti dipende
principalmente dai testi SCELTI come sorgenti per il processo di
programmazione statistica.

Il continuo sorvolare sull'intenzionalità di questa scelta (Chiang
parla di "text found on the Internet"), nasconde al pensiero coloro che
quel software l'hanno programmato compiendo collettivamente miliardi di
miliardi decisioni.


Gli LLM sono espressione di alcune persone, espressione eseguibile che
produce per loro conto un output privo di significato, ma tale da
essere interpretato come avente un significato da chi scrive il prompt.


Ha ragione Guido quando scrive:

On Sun, 1 Sep 2024 23:25:27 +0300 Guido Vetere <vetere.gu...@gmail.com>
wrote:

> Il senso non è nella macchina che parla, ma nell’essere umano che
> l’ascolta. Se questa intuizione fosse recepita, compresa e condivisa,
> il discorso sull’IA generativa potrebbe assumere connotati più
> interessanti, secondo me.

Se tutti avessero piena consapevolezza della totale assenza di
significato nell'output prodotto da questi software, si sentirebbero
profondamente manipolati e presi in giro dai fornitori del "servizio".


Invece assistiamo a Valditara che al telegiornale promette una maggiore
personalizzazione dei contenuti per gli studenti disabili grazie
all'uso della "intelligenza artificiale".
Se tutti comprendessimo ciò di cui parliamo, Valditara non oserebbe
proporre di propinare contenuti privi di significato a studenti
disabili, sputando sull'articolo 3 della Costituzione.


Se tutti avessero piena consapevolezza della totale assenza di
significato nell'output di ChatGPT o Gemini, coloro che ne propongono
l'adozione nella scuola o negli ospedali verrebbero giustamente
trattati come ciarlatani in mala fede.


E certamente, il discorso sull'IA generativa assumerebbe connotati
molto più interessanti. Ad esempio, gli atti prodotti con l'uso di
questi strumenti vanno considerati automaticamente falso ideologico?
Quale che sia il prompt, il loro output è privo di significato e la sua
presenza in atti che prevedono un significato dovrebbe come
minimo invalidarli.


> Calvino spostava dunque l’attenzione dalla poiesis (la generatività)
> all’ esthesis (la ricettività): si poteva apprezzare l’opera
> letteraria automatica non per le virtù degli algoritmi che l’avevano
> creata, ma in quanto evocatrice di qualcosa di latente nel soggetto e
> nella società.

Hai ragione: coloro che programmano un LLM e ne comprendono appieno
il funzionamento, possono sottrarsi agli effetti cognitivi del "gioco di
imitazione" per cui è ottimizzato. Purtroppo possono farlo solo loro.
Alle loro menti, l'output può evocare qualcosa di latente in loro
e nella società... e che loro hanno messo nei testi sorgente. :-)

Tutti gli altri, costretti a limitarsi alla "esthesis", ne saranno
ingannati, attribuendo significati probabilisticamente prestabiliti
dagli sviluppatori... a qualcosa che non ne ha.


Cui prodest?



Giacomo

Reply via email to