Temo che non siamo d’accordo sul significato di “neutrale” per una tecnologia. I LLM calcolano una funzione (la distribuzione di probabilità della prossima parola), pertanto sono altrettanto neutrali di una tabella di logaritmi.
Non è neutrale l’uso che se ne fa, esattamente come una tabella dei logaritmi usata per il calcolo delle traiettorie dei proiettili non lo è. Quindi ribadisco che si deve distinguere tra la tecnologia (LLM) e i suoi utilizzi (chatbot, Predictive AI, ecc.). Tutta la discussione su come vengono allenati e prodotti i vari LLM non inficia la neutralità della tecnologia. Se le tabelle dei logaritmi venissero fatte calcolare da degli schiavi sottopagati o se usano per base 10, incorporando un bias tradizionale sulla scelta della numerazione, le tabelle stesse rimarrebbero neutrali. Tornando all’analogia di Alfredo, un coltello è neutrale e può essere usato in tanti modi, più o meno utili o disdicevoli. Ci sono varie fogge di coltelli, così come ci sono tanti diversi LLM, ciascuno prodotto secondo i gusti di qualcuno. Il fatto che ad alcuni non piacciano certi modelli (di coltello) o si critichi come il coltello è stato progettato e realizzato, ancora non riguarda la tecnologia dei coltelli in sé. I primi LM che facevo costruire 15 anni fa ai miei studenti erano ad esempio allenati sul corpus delle opere di Shakespeare: serviva a dimostrare come fossero in grado di acquisire la lingua e lo stile di Shakespeare. Poi lo si faceva sugli articoli del WSJ, mostrando che imparavano un altro linguaggio. Era quindi una tecnologia neutra rispetto al linguaggio. Che poi tutto sia condizionato dalle nostre esperienze e dal contesto in cui operiamo è talmente ovvio che non serve ribadirlo, né attribuirlo in particolare a un singolo aspetto della nostra realtà. — > On 9 Jan 2025, at 18:56, nexa-requ...@server-nexa.polito.it wrote: > > From: Giacomo Tesio <giac...@tesio.it> > To: nexa@server-nexa.polito.it, Giuseppe Attardi <atta...@di.unipi.it> > Subject: Re: [nexa] In a mirror > Message-ID: <fded4eb6-b488-4e8e-8af7-2b0feb9ad...@tesio.it> > Content-Type: text/plain; charset=UTF-8 > > Ciao Giuseppe, > > speravo davvero che intervenissi! :-) > > Il 9 Gennaio 2025 11:58:04 UTC, Giuseppe Attardi ha scritto: >> >> 1. I LLM vanno distinti dai ChatBot, che sono una delle loro tante >> possibili applicazioni. > > Vero, ma il "riassunto" dalla cui critica è partito questo filone di > discussione è stato realizzato da un chatbot (chatgpt) cui si è fatto > riferimento come un "chi". Non trovi allarmante tanta alienazione? > > La distinzione fra chatbot e LLM rimane informaticamente valida in > generale, ma non credo fosse rilevante per il dibattito perché né > chatbot né LLM esprimono alcuna forma di intelligenza. > >> Gran parte delle critiche riguardano appunto i chatbot >> (allucinazioni, superficialità, ecc.). > > Perché costituiscono la base della narrazione allucinata che domina > il dibattito informatico attuale, determinando scelte politiche, > economiche ed educative altrettanto allucinate. > > >> I LM sono decisamente una tecnologia neutra > > Solo nel mondo della fantasia, Giuseppe. > > > Nella realtà, i LLM sono prodotti a partire da testi che sono > culturalmente e storicamente situati. > > Già solo per questo semplice fatto, nessun LLM reale può essere > "neutro". Ricorderai certamente le critiche pretestuose con cui fu > accolto Minerva l'anno scorso. [1] > > Poi c'è l'attività di programmazione statistica che parte dalla scelta, > fra tutti i testi disponibili, di quelli da utilizzare e di quelli da > scartare. > > A valle di un'accurata attività di selezione e rinforzo, i "modelli" > producono output "politicamente corretto", quale che siano gli > obiettivi politici dei programmatori, dal legittimare il proprio > software agli occhi dei moralisti statunitensi, difendere il proprio > modello di business o cancellare piazza Tiananmen dalla storia [2] > > E spero tu non creda davvero che i modelli di Google, Meta o Open AI > siano in alcun modo "neutrali". > > > Dunque anche se l'idea di LLM non fosse intrinsecamente orientata > politicamente (e lo è), lo sono tutti gli LLM reali. >