Ciao Giuseppe,

speravo davvero che intervenissi! :-)

Il 9 Gennaio 2025 11:58:04 UTC, Giuseppe Attardi ha scritto:
> 
> 1. I LLM vanno distinti dai ChatBot, che sono una delle loro tante
> possibili applicazioni. 

Vero, ma il "riassunto" dalla cui critica è partito questo filone di
discussione è stato realizzato da un chatbot (chatgpt) cui si è fatto
riferimento come un "chi". Non trovi allarmante tanta alienazione?

La distinzione fra chatbot e LLM rimane informaticamente valida in
generale, ma non credo fosse rilevante per il dibattito perché né
chatbot né LLM esprimono alcuna forma di intelligenza.

> Gran parte delle critiche riguardano appunto i chatbot
> (allucinazioni, superficialità, ecc.).

Perché costituiscono la base della narrazione allucinata che domina
il dibattito informatico attuale, determinando scelte politiche,
economiche ed educative altrettanto allucinate.


> I LM sono decisamente una tecnologia neutra

Solo nel mondo della fantasia, Giuseppe.


Nella realtà, i LLM sono prodotti a partire da testi che sono
culturalmente e storicamente situati.

Già solo per questo semplice fatto, nessun LLM reale può essere
"neutro". Ricorderai certamente le critiche pretestuose con cui fu
accolto Minerva l'anno scorso. [1]

Poi c'è l'attività di programmazione statistica che parte dalla scelta,
fra tutti i testi disponibili, di quelli da utilizzare e di quelli da
scartare.

A valle di un'accurata attività di selezione e rinforzo, i "modelli"
producono output "politicamente corretto", quale che siano gli
obiettivi politici dei programmatori, dal legittimare il proprio
software agli occhi dei moralisti statunitensi, difendere il proprio
modello di business o cancellare piazza Tiananmen dalla storia [2]

E spero tu non creda davvero che i modelli di Google, Meta o Open AI
siano in alcun modo "neutrali".


Dunque anche se l'idea di LLM non fosse intrinsecamente orientata
politicamente (e lo è), lo sono tutti gli LLM reali.


> , non sono progettati
> per applicazioni specifiche e di per sé non hanno mai fatto male a
> nessuno, né possono farlo: la loro capacità si limita a predire la
> prossima parola di un testo.

"predire" è già un termine ingannevole (allucinato? allucinatorio?)

Affinché si possa parlare di predizione, l'evento predetto deve
avvenire in modo indipendente da colui che effettua la predizione.

Poiché la scrittura non è un fenomeno naturale e non c'è alcuna persona
che sta scrivendo il messaggio che l'LM sta producendo in output,
definire tale output "predizione" è semanticamente sbagliato.


Anche quando forniamo in input ad un LLM parte di un testo già scritto
per ottenere in output la parola successiva scritta dall'autore, anche
quando l'output corrisponde non possiamo parlare di "pre-dizione"
perché il testo è già stato scritto, ma solo di ri-produzione. [3]


> 2. Non è vero che i LLM sono stati concepiti per ingannare

Una premessa (forse non necessaria): non intendevo fare un processo alle
intenzioni di chi fa ricerca sui LLM in astratto.

Parlavo invece dei LLM reali, programmati statisticamente dalle stesse
persone che parlano di "machine learning", "artificial intelligence",
"allucinazioni" etc...

> in particolare per superare il Turing test, che si basa su ingannare
> quacuno di essere un umano. 

Il mio riferimento al superamento del test di Turing non era
focalizzato all'ambito accademico: superare il test di Turing,
ingannare il maggior numero possibile di persone sulla natura del
software con cui interagiscono, serve a chi questi software li produce
per ottenere finanziamenti, eludere le normative (copyright, data
protection etc...) e alimentare la favola dell'eccezionalismo
tecnologico, influenzare politici e imprenditori etc etc etc...

Che poi il test di Turing non abbia alcun valore scientifico, sono
d'accordo, ma d'altro canto anche gli Alchimisti usavano teorie
bislacche.

> Il test di Turing è solo uno dei tanti disponibili per valutarne le
> prestazioni dei chatbot, in mancanza di meglio. È un test indiretto,
> assumendo che un chatbot sia migliore se usa un LLM migliore: il vero
> test dei LM sarebbe la perplexity, che però non è molto efficace.

Perché poi la chiamate "perplexity"?

Non c'è nessuno "perplesso", solo un insieme più o meno ampio di output
pressappoco equivalenti.

Forse non è efficace perché non misura davvero ciò che vorreste? ;-)


> Anche se la confusione nel pubblico tra LLM e chatbot è diffusa,
> inviterei a usare il termine chatbot in una lista di persone più
> esperte come questa.

Ripeto: tecnicamente hai ragione, ma in questo thread la distinzione
rilevante (accennata dalla Vallor stessa durante il talk) separava le
"AI generative" (cui gli LLM appartengono) dagli altri software "AI".



Giacomo

[1] 
https://web.archive.org/web/20240523162900/https://ilmanifesto.it/minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni/r/JTAtHrlD2hKzDwzGCLgPt

[2] ricorderete, recentemente passato in lista
https://techcrunch.com/2024/12/26/deepseeks-new-ai-model-appears-to-be-one-of-the-best-open-challengers-yet/

[3] E di ri-produzione automatica in effetti si tratta.
    Sebbene la riproduzione sia soggetta a notevoli errori in quanto
    composizione di un input fornito dall'utente, di numeri casuali
    estratti durante la produzione e dei contenuti compressi con perdita
    all'interno del "modello".

    La presenza di entropia nel processo di programmazione del "modello"
    e nella sua esecuzione privano l'output di qualsiasi significato che
    gli autori dell'input o dei testi sorgente intendessero imprimere al
    proprio testo, per cui chiamare l'output di un LLM "sintesi" è, di
    nuovo errato, e dunque ingannevole.

    L'output di un LLM non ha alcun significato, sebbene sia ottimizzato
    per far credere alle menti umane che provano ad leggervi un
    significato, di averne uno.

Reply via email to