Salve, Massimo.
Non ho capito il punto, che non mi sembra correlato con il mio.
Io "converso" normalmente con le macchine. Un foglio Excel è un'estensione di me, come pure un documento PowerPoint o un testo Word. Mi aiutano tutti -- aspetto comune: IN OUTPUT (ma anche a ragionare) -- a mettere ordine nei pensieri. Se non sono informato sui cani del deserto, o sulla band degli Oasis, e chiedo lumi a Google AI, invece che a un motore di ricerca "passivo" (chiamiamolo così), non vedo niente di strano leggerci della semantica, anche se è motore di ricerca "ripasticciato" (NON "con perdita", come dice Giacomo). L'AI (termine ebete, ribadisco), fa del suo meglio per sintetizzare, magari anche per essere gradevole e darmi ragione, il che è solo un grado sopra il completamento automatico delle parole, o il correttore ortografico quando non diventa invasivo. Se c'è qualcuno che ci vede oracoli, o mezzi di convincimento di massa, a me viene da ridere. C'è ben altro con cui la gente viene regolarmente fottuta -- non fatemi bestemmiare... -- e noi non diciamo nulla.



Il 2026-05-11 13:08 Massimo Maria Ghisalberti ha scritto:
Quello che va valutato è l'impatto etico-sociale di questa tecnologia e il livello di attribuzione alle parole è importante. Appunto lei è un umano. L'umano tente ad "antropomorfizzare" ogni relazione al di fuori di sé per un semplice motivo, comprendere. È più semplice comprendere partendo da una base conosciuta è la natura si articola sul "minimo sforzo". Lei dice che una schimmia è provocatoria, perché ha una idea di scimmia, dice che una fotocopia è dirimente perché ha un'idea di fotocopia ma soprattutto ha un'idea del testo scritto. Qui andrebbe valutato del testo scritto da chi, ma lasciamo stare e immaginaniamo che sia un esimio professore. Che sia normale trovare della semantica in un testo grammaticalmente sufficientemente corretto e plausibile non si discute, infatti è quello il problema. Se adeguatamente stimolato e altrettanto adeguatamente ignorante in materia con la convinzione che stia discutendo con un oracolo infallibile o quasi, non sarebbe tentato di credere sulla fiducia? Per quale motivo crede che ci si stia così impegnando nel livello
"conversazionale" di queste macchine?
Non basta incazzarzi per il nome di marketing e per quello che mi riguarda, nemmeno tacciarli di essere "statistici" soltanto (che è una riduzione come IA
per fare a capirsi).

Che ne facciamo si chiede? Ora come ora, considerando vari fattori il "buttarli a mare" sarebbe l'atto più appropriato, almeno finché non ne esista una reale comprensione e sia chiaro per chiunque come siano soltanto delle macchine.

-- massimo

Il giorno lun, 11/05/2026 alle 11.48 +0200, abregni via nexa ha scritto:
Scusa, Giacomo, una piccola nota.

A me sembra concettualmente sbagliato dire: "Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche
invece che statistiche."

Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico,
sintassi, semantica (e semantica sulle righe, tra le righe e dietro le
righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre
livelli).
Se poi leggo una fotocopia della Divina Commedia, o uno scritto di
scimmia con la macchina da scrivere che l'ha casualmente riprodotta
identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è
"dirimente" -- sinceramente non vedo testuale né semantica differenza
(altro caso è se sono un esperto biblista, e devo distinguere fra un
Gutemberg e una Xerox, ma qui stiamo parlando di semantica).
Se l'obiettivo della MAL INDICATA "IA", invece di "CdT" (confezionatori
di testi), è di confezionare testi su base statistica, o li buttiamo
tutti a mare, oppure usiamo i loro risultati per la semantica che più o
meno forniscono.
Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e non
la realtà, e ti va bene anche se il metro e il calibro ...non pensano.

Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO
che cerca di fingerla al meglio.
Concordo sul fatto che le informazioni sono nella testa di scrive, ...ma io quando leggo uno scritto ne traggo delle informazioni anche se chi ce
le ha messe non le aveva (come molto giornalismo, ad esempio; peggio
ancora i social). Perché ti preoccupi del fatto che gli LLM sono
"statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa comodo
li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti,
...per cosa?




Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
> Caro Andrea,
>
> On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
>
> > eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema
> > "semantica" non ne usciamo più... :-)
>
> per quanto stretta e scomoda, è una strada necessaria.
>
>
> La mail che stai leggendo è una rappresentazione simbolica di
> un'informazione nella mia mente: un'esperienza soggettiva di pensiero
> comunicabile che cerco di esprimere e trasmetterti perché tu ne possa
> vedere i simboli ed interpretarli, riproducendo tale esperienza nella
> tua mente. [1]
>
>
> Le parole di questa mail sono legate da relazioni semantiche: ogni
> parola viene scelta per contribuire alla trasmissione delle
> informazioni
> nella mia mente che intendo trasmettere.
>
> Non rileva molto, in realtà, che tali informazioni siano o meno
> derivate da esperienze sensibili (non concordo particolarmente con
> Enrico sulla rilevanza dell'esperienza corporea nel contesto delle
> "intelligenze artificiali", anche perché non è difficile collegare a
> questi software sensori e attuatori).
>
> Molto più rilevante è la relazione fra l'informazione nella mia mente
> (l'esperienza di pensiero comunicabile che intendo comunicare) e le
> parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
>
>
>
> L'output di un LLM invece non ha alcun significato.
>
> I token estrati dal modello a partire dal prompt non sono legati da
> relazioni semantiche, ma statistiche. [2]
>
> Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un
> pensiero comunicabile. I processi di attivazione degli strati finali
> della vector mapping machine (impropriamente detta "rete neurale
> arficiale") sono "difficili da interpretare" (per usare le parole di
> Giuseppe Attardi) semplicemente perché non hanno alcun significato
> intrinseco [3] e dunque non c'è nulla da interpretare.
>
>
>
> Il problema fondamentale è che chi non comprende il funzionamento di
> questi software attribuisce un significato al loro output, attribuendo
> alle parole relazioni semantiche invece che statistiche.
>
>
> Se usi un LLM come archivio compresso con perdita, può essere utile.
> Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi
> concorrenti che lo usano (fornendo loro in cambio accesso al tuo).
> O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un
> cliente per praticamente qualsiasi ambito commerciale.
>
> Ma se lo confondi con un interlocutore, con un "AI peer programmer"
> (vedi marketing di GitHub CopyALot o Claude), sei vittima di un
> inganno.
>
>
> Giacomo
>
> [1] Infatti, contrariamente ad un protocollo software che permette il
>     trasferimento (più propriamente, la copia) di un dato fra
>     dispositivi diversi, il linguaggio non determina una trasferimento
>     di informazione (che essendo esperienza soggettiva, non lascia mai
>     la mente di chi la esperisce) ma solo una sincronizzazione,
> parziale
>     e inesatta, fra menti umane.
>    
> 
https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-relationship
>
> [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri
>     prodotti a valle delle varie trasformazioni non lineari e delle
>     normalizzazioni calcolate durante l'esecuzione del LLM sul "motore
>     inferenziale" non sono più interpretabili matematicamente come
>     probabilità.
>
> [3] così come non ne hanno i livelli iniziali, sebbene sia possibile
>     ricondurre determinati pattern di attivazione a pattern
>     particolarmente frequenti nel testo, come sono, ovviamente, le
>     strutture grammaticali di una lingua.

Reply via email to