Buona sera Giuseppe,

On Sun, 16 Apr 2023 11:24:28 +0200 Giuseppe Attardi wrote:

> Questa risposta è talmente grossolana e offensiva che speravo qualcun
> altro rispondesse.

Mi dispiace sinceramente di aver offeso la tua sensibilità.

Me ne scuso e provo a chiarire meglio cosa intendessi.


> L’Artificial Intelligence esiste ed è una delle principali discipline
> della Computer Science. Ci sono riviste, congressi e istituti
> dedicati alla ricerca in AI in tutto il mondo. 

L'Intelligenza Artificiale non è una tecnologia.

E' una disciplina come lo sono state per secoli l'astrologia o
l'alchimia. Discipline con studiosi del calibro di Isaac Newton.

Scriveva Dijkstra nel 1984:

```
Two major streams can be distinguished, the quest for the Stone and the
quest for the Elixir.

The quest for the Stone is based on the assumption that our
"programming tools" are too weak. One example is the belief that
current programming languages lack the "features" we need. [...]

In parallel we have the search for the Elixir. Here the programming
problem is simply solved by doing away with the programmer. Wouldn't it
be nice, for instance, to have programs in almost plain English, so
that ordinary people could write and read them? [...]

Since then we have had elixirs in a countless variety of tastes and
colours. I have fond memories of a project of the early 70's that
postulated that we did not need programs at all! All we needed was
"intelligence amplification". If they have been able to design
something that could "amplify" at all, they have probably 
discovered it would amplify stupidity as well; 
in any case I have not heard from it since.

The major attraction of the modern elixirs is that they relieve their
consumers from the obligation of being precise by presenting an
interface too fuzzy to be precise in: by suppressing the symptoms 
of impotence they create an illusion of power. 
```
https://www.cs.utexas.edu/users/EWD/transcriptions/EWD08xx/EWD898.html

Nemmeno Dijkstra poteva immaginare che qualcuno prendesse talmente
sul serio la ricerca di un elisir di lunga vita da immaginare di
sterminare l'umanità per sostituirla con simulazioni eseguite dentro
enormi calcolatori (transumanisti, longtermisti etc...)

Ma ChatGPT (e GitHub CopyALot, prima) non è proprio l'ennesima
incarnazione della ricerca dell'elisir di cui parlava EWD?


Vero: diverse innovazioni INFORMATICHE sono state realizzate grazie
agli enormi FINANZIAMENTI ottenuti dalla Intelligenza Artificiale.

L'AI vende bene, non c'è dubbio.
E sui curricula fa un figurone!

Ma rimane una speranza, un'ambizione, un sogno... non una tecnologia.

E nel momento in cui qualcuno la vende come tale, diventa
un'allucinazione o una truffa.


> Occupandosi di uno dei problemi più complessi dell’informatica, ossia
> la riproduzione delle capacità della mente umana

Ma questo non è affatto un problema dell'informatica, Giuseppe!


La supply chain è un problema dell'informatica.

La complessità accidentale e strumentale dei software moderni è un
problema dell'informatica.

La normalizzazione dell'insicurezza sistemica che tale complessità
determina è un problema dell'informatica.

La crittografia pienamente omomorfica è un problema dell'informatica.
 

Ma riprodurre le capacità della mente umana NON è un problema che
l'umanità abbia alcuna urgenza di risolvere.

La mente umana è talmente efficiente... per sole trecento chilocalorie
al giorno può fare molto più di quanto GPT-4 non farà mai!


Dunque l'AI NON cerca di risolvere un problema informatico.


E' invece uno strumento di propaganda.
Per questo riceve tanti finanziamenti!

Diffonde un messaggio politico: l'uomo può essere sostituito da cose.


L'Intelligenza Artificiale serve letteralmente a legittimare 
il dominio dell'uomo sull'uomo. E serve ad applicarlo tramite macchine.


Tutta l'urgenza di sottrarre Open AI alle proprie responsabilità legali
rispetto all'output di ChatGPT mostra bene questa esigenza.

Il messaggio è chiaro: si DEVE secrificare i diritti umani all'AI.


> Marvin Minsky diceva: “When it works, it is no longer AI”, per
> esprimere il rammarico che le più significative innovazioni dell’AI
> venissero spesso attribuite ad altri.

Minsky lo viveva con rammarico perché credeva sinceramente nella favola 
dell'Intelligenza Artificiale, non vedendone gli scopi politici.

Io invece la vedo come progresso: quando finalmente uno strumento
funziona, non ha più bisogno della fuffa AI per essere finanziato.


> > la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza
> > Artificiale" (che non esiste, se non come allucinazione collettiva)
> > ma sulla programmazione statistica
>  
> L’AI copre aree più vaste della “programmazione statistica”.

Vero.
Vende così bene, che ci mettono dentro un po' di tutto. 

Ma quella di cui stiamo parlando (GPT-4) è programmazione statistica.


> Il confronto con la blockchain è offensivo: quella è una tecnologia
> in cerca di applicazioni, basata su un singolo articolo. 

Ok, hai ragione: paragonare qualsiasi cosa alla blockchain è offensivo e
me ne scuso sinceramente.


> Non può essere comparata con una disciplina scientifica con 50 anni di
> ricerca alle spalle e migliaia di ricercatori coinvolti.

Intendevo semplicemente dire che la Commissione Europea non ha un
minimo di comprensione delle tecnologie che finanzia, producendo
sprechi ed disastri strategici enormi.

I vari finanziamenti alla blockchain rientrano negli sprechi.

Quelli alla "intelligenza artificiale" rientrano nei disastri
strategici: dovrebbe finanziare l'informatica, lo sviluppo di software
progettati per facilitare la comunicazione, la didattica etc...
finanziare la ricerca di sistemi operativi sicuri, di protocolli
peer to peer e robe simili...

In altri termini, l'UE dovrebbe investire nella creazione di
un'informatica DEMOCRATICA, alla portata di tutti.


Gli LLM (giusto per fare un esempio on-topic) sono l'antitesi di tale 
informatica. E l'UE non dovrebbe sprecare soldi pubblici per essi.

> > In Europa arranchiamo solo perché inseguiamo, invece di guidare.
> >   
> Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui
> abbiamo scarso controllo?

Non so a quale tecnologia tu faccia riferimento, ma il punto è proprio
che non dovremmo inseguire.


Dovremmo adottare un approccio top-down: 

1. quali obiettivi sociali e politici vogliamo realizzare? 
2. che tecnologia ci serve per realizzarli?

Solo dopo aver deciso quale società vogliamo per i nostri figli, potremo
iniziare a pensare quale infrastruttura tecnologica gli servirà.
E potremo così anche realizzarla.


Invece, inseguire l'elisir della AI significa accettare proni un modello
di società deciso altrove, nell'interesse di altri.


Possiamo fare di meglio.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to