Temo che non siamo d’accordo sul significato di “neutrale” per una tecnologia.
I LLM calcolano una funzione (la distribuzione di probabilità della prossima 
parola), pertanto sono altrettanto neutrali di una tabella di logaritmi.

Non è neutrale l’uso che se ne fa, esattamente come una tabella dei logaritmi 
usata per il calcolo delle traiettorie dei proiettili non lo è.

Quindi ribadisco che si deve distinguere tra la tecnologia (LLM) e i suoi 
utilizzi (chatbot, Predictive AI, ecc.).

Tutta la discussione su come vengono allenati e prodotti i vari LLM non inficia 
la neutralità della tecnologia. Se le tabelle dei logaritmi venissero fatte 
calcolare da degli schiavi sottopagati o se usano per base 10, incorporando un 
bias tradizionale sulla scelta della numerazione, le tabelle stesse 
rimarrebbero neutrali.

Tornando all’analogia di Alfredo, un coltello è neutrale e può essere usato in 
tanti modi, più o meno utili o disdicevoli. Ci sono varie fogge di coltelli, 
così come ci sono tanti diversi LLM, ciascuno prodotto secondo i gusti di 
qualcuno.
Il fatto che ad alcuni non piacciano certi modelli (di coltello) o si critichi 
come il coltello è stato progettato e realizzato, ancora non riguarda la 
tecnologia dei coltelli in sé.

I primi LM che facevo costruire 15 anni fa ai miei studenti erano ad esempio 
allenati sul corpus delle opere di Shakespeare: serviva a dimostrare come 
fossero in grado di acquisire la lingua e lo stile di Shakespeare. Poi lo si 
faceva sugli articoli del WSJ, mostrando che imparavano un altro linguaggio. 
Era quindi una tecnologia neutra rispetto al linguaggio.

Che poi tutto sia condizionato dalle nostre esperienze e dal contesto in cui 
operiamo è talmente ovvio che non serve ribadirlo, né attribuirlo in 
particolare a un singolo aspetto della nostra realtà.

—

> On 9 Jan 2025, at 18:56, nexa-requ...@server-nexa.polito.it wrote:
> 
> From: Giacomo Tesio <giac...@tesio.it>
> To: nexa@server-nexa.polito.it, Giuseppe Attardi <atta...@di.unipi.it>
> Subject: Re: [nexa] In a mirror
> Message-ID: <fded4eb6-b488-4e8e-8af7-2b0feb9ad...@tesio.it>
> Content-Type: text/plain; charset=UTF-8
> 
> Ciao Giuseppe,
> 
> speravo davvero che intervenissi! :-)
> 
> Il 9 Gennaio 2025 11:58:04 UTC, Giuseppe Attardi ha scritto:
>> 
>> 1. I LLM vanno distinti dai ChatBot, che sono una delle loro tante
>> possibili applicazioni.
> 
> Vero, ma il "riassunto" dalla cui critica è partito questo filone di
> discussione è stato realizzato da un chatbot (chatgpt) cui si è fatto
> riferimento come un "chi". Non trovi allarmante tanta alienazione?
> 
> La distinzione fra chatbot e LLM rimane informaticamente valida in
> generale, ma non credo fosse rilevante per il dibattito perché né
> chatbot né LLM esprimono alcuna forma di intelligenza.
> 
>> Gran parte delle critiche riguardano appunto i chatbot
>> (allucinazioni, superficialità, ecc.).
> 
> Perché costituiscono la base della narrazione allucinata che domina
> il dibattito informatico attuale, determinando scelte politiche,
> economiche ed educative altrettanto allucinate.
> 
> 
>> I LM sono decisamente una tecnologia neutra
> 
> Solo nel mondo della fantasia, Giuseppe.
> 
> 
> Nella realtà, i LLM sono prodotti a partire da testi che sono
> culturalmente e storicamente situati.
> 
> Già solo per questo semplice fatto, nessun LLM reale può essere
> "neutro". Ricorderai certamente le critiche pretestuose con cui fu
> accolto Minerva l'anno scorso. [1]
> 
> Poi c'è l'attività di programmazione statistica che parte dalla scelta,
> fra tutti i testi disponibili, di quelli da utilizzare e di quelli da
> scartare.
> 
> A valle di un'accurata attività di selezione e rinforzo, i "modelli"
> producono output "politicamente corretto", quale che siano gli
> obiettivi politici dei programmatori, dal legittimare il proprio
> software agli occhi dei moralisti statunitensi, difendere il proprio
> modello di business o cancellare piazza Tiananmen dalla storia [2]
> 
> E spero tu non creda davvero che i modelli di Google, Meta o Open AI
> siano in alcun modo "neutrali".
> 
> 
> Dunque anche se l'idea di LLM non fosse intrinsecamente orientata
> politicamente (e lo è), lo sono tutti gli LLM reali.
> 

Reply via email to