Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
> eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema
> "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di
un'informazione nella mia mente: un'esperienza soggettiva di pensiero
comunicabile che cerco di esprimere e trasmetterti perché tu ne possa
vedere i simboli ed interpretarli, riproducendo tale esperienza nella
tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni
parola viene scelta per contribuire alla trasmissione delle informazioni
nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno
derivate da esperienze sensibili (non concordo particolarmente con
Enrico sulla rilevanza dell'esperienza corporea nel contesto delle
"intelligenze artificiali", anche perché non è difficile collegare a
questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente
(l'esperienza di pensiero comunicabile che intendo comunicare) e le
parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da
relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un
pensiero comunicabile. I processi di attivazione degli strati finali
della vector mapping machine (impropriamente detta "rete neurale
arficiale") sono "difficili da interpretare" (per usare le parole di
Giuseppe Attardi) semplicemente perché non hanno alcun significato
intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di
questi software attribuisce un significato al loro output, attribuendo
alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile.
Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi
concorrenti che lo usano (fornendo loro in cambio accesso al tuo).
O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un
cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer"
(vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il
trasferimento (più propriamente, la copia) di un dato fra
dispositivi diversi, il linguaggio non determina una trasferimento
di informazione (che essendo esperienza soggettiva, non lascia mai
la mente di chi la esperisce) ma solo una sincronizzazione, parziale
e inesatta, fra menti umane.
https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-relationship
[2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri
prodotti a valle delle varie trasformazioni non lineari e delle
normalizzazioni calcolate durante l'esecuzione del LLM sul "motore
inferenziale" non sono più interpretabili matematicamente come
probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile
ricondurre determinati pattern di attivazione a pattern
particolarmente frequenti nel testo, come sono, ovviamente, le
strutture grammaticali di una lingua.