Scusa, Giacomo, una piccola nota.
A me sembra concettualmente sbagliato dire: "Il problema fondamentale
è
che chi non comprende il funzionamento di questi software attribuisce
un
significato al loro output, attribuendo alle parole relazioni
semantiche
invece che statistiche."
Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico,
sintassi, semantica (e semantica sulle righe, tra le righe e dietro le
righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre
livelli).
Se poi leggo una fotocopia della Divina Commedia, o uno scritto di
scimmia con la macchina da scrivere che l'ha casualmente riprodotta
identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è
"dirimente" -- sinceramente non vedo testuale né semantica differenza
(altro caso è se sono un esperto biblista, e devo distinguere fra un
Gutemberg e una Xerox, ma qui stiamo parlando di semantica).
Se l'obiettivo della MAL INDICATA "IA", invece di "CdT"
(confezionatori
di testi), è di confezionare testi su base statistica, o li buttiamo
tutti a mare, oppure usiamo i loro risultati per la semantica che più
o
meno forniscono.
Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e
non
la realtà, e ti va bene anche se il metro e il calibro ...non pensano.
Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO
che cerca di fingerla al meglio.
Concordo sul fatto che le informazioni sono nella testa di scrive,
...ma
io quando leggo uno scritto ne traggo delle informazioni anche se chi
ce
le ha messe non le aveva (come molto giornalismo, ad esempio; peggio
ancora i social). Perché ti preoccupi del fatto che gli LLM sono
"statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa
comodo
li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti,
...per cosa?
Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
> Caro Andrea,
>
> On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
>
> > eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema
> > "semantica" non ne usciamo più... :-)
>
> per quanto stretta e scomoda, è una strada necessaria.
>
>
> La mail che stai leggendo è una rappresentazione simbolica di
> un'informazione nella mia mente: un'esperienza soggettiva di pensiero
> comunicabile che cerco di esprimere e trasmetterti perché tu ne possa
> vedere i simboli ed interpretarli, riproducendo tale esperienza nella
> tua mente. [1]
>
>
> Le parole di questa mail sono legate da relazioni semantiche: ogni
> parola viene scelta per contribuire alla trasmissione delle
> informazioni
> nella mia mente che intendo trasmettere.
>
> Non rileva molto, in realtà, che tali informazioni siano o meno
> derivate da esperienze sensibili (non concordo particolarmente con
> Enrico sulla rilevanza dell'esperienza corporea nel contesto delle
> "intelligenze artificiali", anche perché non è difficile collegare a
> questi software sensori e attuatori).
>
> Molto più rilevante è la relazione fra l'informazione nella mia mente
> (l'esperienza di pensiero comunicabile che intendo comunicare) e le
> parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
>
>
>
> L'output di un LLM invece non ha alcun significato.
>
> I token estrati dal modello a partire dal prompt non sono legati da
> relazioni semantiche, ma statistiche. [2]
>
> Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un
> pensiero comunicabile. I processi di attivazione degli strati finali
> della vector mapping machine (impropriamente detta "rete neurale
> arficiale") sono "difficili da interpretare" (per usare le parole di
> Giuseppe Attardi) semplicemente perché non hanno alcun significato
> intrinseco [3] e dunque non c'è nulla da interpretare.
>
>
>
> Il problema fondamentale è che chi non comprende il funzionamento di
> questi software attribuisce un significato al loro output, attribuendo
> alle parole relazioni semantiche invece che statistiche.
>
>
> Se usi un LLM come archivio compresso con perdita, può essere utile.
> Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi
> concorrenti che lo usano (fornendo loro in cambio accesso al tuo).
> O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un
> cliente per praticamente qualsiasi ambito commerciale.
>
> Ma se lo confondi con un interlocutore, con un "AI peer programmer"
> (vedi marketing di GitHub CopyALot o Claude), sei vittima di un
> inganno.
>
>
> Giacomo
>
> [1] Infatti, contrariamente ad un protocollo software che permette il
> trasferimento (più propriamente, la copia) di un dato fra
> dispositivi diversi, il linguaggio non determina una trasferimento
> di informazione (che essendo esperienza soggettiva, non lascia mai
> la mente di chi la esperisce) ma solo una sincronizzazione,
> parziale
> e inesatta, fra menti umane.
>
>
https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-relationship
>
> [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri
> prodotti a valle delle varie trasformazioni non lineari e delle
> normalizzazioni calcolate durante l'esecuzione del LLM sul "motore
> inferenziale" non sono più interpretabili matematicamente come
> probabilità.
>
> [3] così come non ne hanno i livelli iniziali, sebbene sia possibile
> ricondurre determinati pattern di attivazione a pattern
> particolarmente frequenti nel testo, come sono, ovviamente, le
> strutture grammaticali di una lingua.