Il giorno gio, 14/05/2026 alle 11.45 +0000, Giuseppe Attardi via nexa ha
scritto:
> A me pare che la lettura dell’articolo di Anthropic sulle attivazioni negli
> LLM con gli autoencoders [1] stia portando a rivedere la posizione di chi
> finora sosteneva si trattasse di semplici modelli matematico-statistici
> (attenzione, tecnicamente lo sono).

Che la struttura di un sistema generativo sia complessa non credo che sia
discutibile, il punto non è quello. Quando mi riferisco alle "basi" spiegabili
in forme matematicamente semplici mi riferisco alla base su cui poggia una volta
l'intero sistema e oggi più strati del sistema. Chiaramente ci sono diverse
problematiche prime tra tutte la "velocità" nel produrre una risposta. Algoritmi
classici che come spiegazione possono andare bene, non vanno più per un uso
reale: non posso stare ad aspettare attese bibliche tra una domanda e una
risposta. Ritengo utile questa spiegazione di "bassa lega" per far comprendere
come non ci sia magia dietro ma solo un meccanicismo che data una domanda trova
un risposta che potremmo definire plausibile. Questo non fa di una macchina una
"macchina pensante". 
Che poi possano essere strumenti davvero utili, forse si e forse no, vedremo in
futuro.  
Quando si parla di "tecnologie software" mi metto sempre dalla parte del povero
utente, quello che se le beve tutte, quello che abbocca a ogni presunto
avanzamento tecnologico proposto da markettari astuti. L'abile venditore di fumo
mi potrebbe convincere di qualunque cosa portandomi a una alienazione socio-
culturale senza precedenti. Qualunque cosa sia questa famigerata AI, di una cosa
è certo: è la tecnologia informatica più pericolosa mai concepita fino ad
adesso. Può portare l'uomo a una tale regressione intellettuale, non chi conosce
e sa sfruttare, ma la massa, la stessa massa di persone che in tutte le maniere
una classe dominante ha cercato di sottomettere.  
Anni fa c'era la mania del "coding" e tutti a ballare nei teatri con le
magliette di avanti->avanti->sinistra->avanti. Il "pensiero computazionale"
instillato in bambini a colpi di blocchetti colorati. Pur con
quell'atteggiamento naive alla programmazione si cercava di insegnare le "basi"
costringendo i ragazzi a pensare. Che pensiero critico potranno mai acquisire
attingendo soltanto alle risposte? Con l'Ai da "produttori" li stiamo rendendo o
mantenendo "utenti" più meno passivi se non passivi del tutto.  
Talvolta mi crea sgomento quando persone che sono o potrebbero essere addentro,
contribuiscono anche loro malgrado o in perfetta ingenuità o peggio in dolo,
alla retorica da marketing commerciale che aleggia attorno a questi sistemi.
Sistemi opachi, prodotti da aziende il cui scopo è il lucro puro e semplice.
Quale visione di miglioramento del genere umano hanno mai questi individui? Sono
in pieno delirio di onnipotenza con una visione del mondo miope ed
esclusivamente a loro vantaggio. 
Ragionando "di pancia" a sapere che anche un solo bambino al mondo è deceduto
per un bombardamento AI-mediato la vieterei, che progresso sarebbe mai questo?

Penso che più o meno siamo tutti d'accordo che la sperimentazione genetica
sull'uomo sia una cosa da controllare molto seriamente se non da vietare. In
senso molto lato non sarebbe più o meno la stessa cosa per AI? 

Comunque, mi sono ricordati di un testo decente e abbastanza equilibrato che è
liberamente scaricabile poi che faccia scienza o meno è ininfluente.

Demystifying Artificial Intelligence
Symbolic, Data-Driven, Statistical and Ethical AI
https://www.degruyterbrill.com/document/doi/10.1515/9783111426143/html

-- massimo

Attachment: signature.asc
Description: This is a digitally signed message part

Reply via email to