Ciao Giuseppe, speravo davvero che intervenissi! :-)
Il 9 Gennaio 2025 11:58:04 UTC, Giuseppe Attardi ha scritto: > > 1. I LLM vanno distinti dai ChatBot, che sono una delle loro tante > possibili applicazioni. Vero, ma il "riassunto" dalla cui critica è partito questo filone di discussione è stato realizzato da un chatbot (chatgpt) cui si è fatto riferimento come un "chi". Non trovi allarmante tanta alienazione? La distinzione fra chatbot e LLM rimane informaticamente valida in generale, ma non credo fosse rilevante per il dibattito perché né chatbot né LLM esprimono alcuna forma di intelligenza. > Gran parte delle critiche riguardano appunto i chatbot > (allucinazioni, superficialità, ecc.). Perché costituiscono la base della narrazione allucinata che domina il dibattito informatico attuale, determinando scelte politiche, economiche ed educative altrettanto allucinate. > I LM sono decisamente una tecnologia neutra Solo nel mondo della fantasia, Giuseppe. Nella realtà, i LLM sono prodotti a partire da testi che sono culturalmente e storicamente situati. Già solo per questo semplice fatto, nessun LLM reale può essere "neutro". Ricorderai certamente le critiche pretestuose con cui fu accolto Minerva l'anno scorso. [1] Poi c'è l'attività di programmazione statistica che parte dalla scelta, fra tutti i testi disponibili, di quelli da utilizzare e di quelli da scartare. A valle di un'accurata attività di selezione e rinforzo, i "modelli" producono output "politicamente corretto", quale che siano gli obiettivi politici dei programmatori, dal legittimare il proprio software agli occhi dei moralisti statunitensi, difendere il proprio modello di business o cancellare piazza Tiananmen dalla storia [2] E spero tu non creda davvero che i modelli di Google, Meta o Open AI siano in alcun modo "neutrali". Dunque anche se l'idea di LLM non fosse intrinsecamente orientata politicamente (e lo è), lo sono tutti gli LLM reali. > , non sono progettati > per applicazioni specifiche e di per sé non hanno mai fatto male a > nessuno, né possono farlo: la loro capacità si limita a predire la > prossima parola di un testo. "predire" è già un termine ingannevole (allucinato? allucinatorio?) Affinché si possa parlare di predizione, l'evento predetto deve avvenire in modo indipendente da colui che effettua la predizione. Poiché la scrittura non è un fenomeno naturale e non c'è alcuna persona che sta scrivendo il messaggio che l'LM sta producendo in output, definire tale output "predizione" è semanticamente sbagliato. Anche quando forniamo in input ad un LLM parte di un testo già scritto per ottenere in output la parola successiva scritta dall'autore, anche quando l'output corrisponde non possiamo parlare di "pre-dizione" perché il testo è già stato scritto, ma solo di ri-produzione. [3] > 2. Non è vero che i LLM sono stati concepiti per ingannare Una premessa (forse non necessaria): non intendevo fare un processo alle intenzioni di chi fa ricerca sui LLM in astratto. Parlavo invece dei LLM reali, programmati statisticamente dalle stesse persone che parlano di "machine learning", "artificial intelligence", "allucinazioni" etc... > in particolare per superare il Turing test, che si basa su ingannare > quacuno di essere un umano. Il mio riferimento al superamento del test di Turing non era focalizzato all'ambito accademico: superare il test di Turing, ingannare il maggior numero possibile di persone sulla natura del software con cui interagiscono, serve a chi questi software li produce per ottenere finanziamenti, eludere le normative (copyright, data protection etc...) e alimentare la favola dell'eccezionalismo tecnologico, influenzare politici e imprenditori etc etc etc... Che poi il test di Turing non abbia alcun valore scientifico, sono d'accordo, ma d'altro canto anche gli Alchimisti usavano teorie bislacche. > Il test di Turing è solo uno dei tanti disponibili per valutarne le > prestazioni dei chatbot, in mancanza di meglio. È un test indiretto, > assumendo che un chatbot sia migliore se usa un LLM migliore: il vero > test dei LM sarebbe la perplexity, che però non è molto efficace. Perché poi la chiamate "perplexity"? Non c'è nessuno "perplesso", solo un insieme più o meno ampio di output pressappoco equivalenti. Forse non è efficace perché non misura davvero ciò che vorreste? ;-) > Anche se la confusione nel pubblico tra LLM e chatbot è diffusa, > inviterei a usare il termine chatbot in una lista di persone più > esperte come questa. Ripeto: tecnicamente hai ragione, ma in questo thread la distinzione rilevante (accennata dalla Vallor stessa durante il talk) separava le "AI generative" (cui gli LLM appartengono) dagli altri software "AI". Giacomo [1] https://web.archive.org/web/20240523162900/https://ilmanifesto.it/minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni/r/JTAtHrlD2hKzDwzGCLgPt [2] ricorderete, recentemente passato in lista https://techcrunch.com/2024/12/26/deepseeks-new-ai-model-appears-to-be-one-of-the-best-open-challengers-yet/ [3] E di ri-produzione automatica in effetti si tratta. Sebbene la riproduzione sia soggetta a notevoli errori in quanto composizione di un input fornito dall'utente, di numeri casuali estratti durante la produzione e dei contenuti compressi con perdita all'interno del "modello". La presenza di entropia nel processo di programmazione del "modello" e nella sua esecuzione privano l'output di qualsiasi significato che gli autori dell'input o dei testi sorgente intendessero imprimere al proprio testo, per cui chiamare l'output di un LLM "sintesi" è, di nuovo errato, e dunque ingannevole. L'output di un LLM non ha alcun significato, sebbene sia ottimizzato per far credere alle menti umane che provano ad leggervi un significato, di averne uno.