Grazie dell'osservazione. Ha ragione, sono stati anche gli esperti della 
Commissione.

Ci sono però testimonianze dirette del fatto che questi siano stati gentilmente 
invitati a farlo

da altri esperti, con incarichi direzionali e giunti lì attraverso sliding 
doors.

Mi sembra perciò un classico caso di cattura del regolatore, non trova?

E la cattura culturale converge verso lo stesso obiettivo.


Riporto di seguito una parte della testimonianza di uno degli esperti europei 
incaricati (grassetto mio):

As a member of the expert group, I am disappointed with the result that has now 
been presented. The guidelines are
lukewarm, short-sighted and deliberately vague. They ignore long-term risks, 
gloss over difficult problems (“explainability”) with
rhetoric, violate elementary principles of rationality and pretend to know 
things that nobody really knows.
Together with the excellent Berlin machine learning expert Urs Bergmann 
(Zalando), it was my task to develop, over many
months of discussion, the “Red Lines” – non-negotiable ethical principles 
determining what should not be done with AI in
Europe. The use of lethal autonomous weapon systems was an obvious item on our 
list, as was the AI-supported assessment
of citizens by the state (social scoring) and, in principle, the use of AIs 
that people can no longer understand and control.
I only realized that all this was not actually desired when our friendly 
Finnish HLEG President Pekka Ala-Pietilä (formerly
Nokia) asked me in a gentle voice whether we could remove the phrase 
“non-negotiable” from the document. In the next step,
many industry representatives and group members interested in a “positive 
vision” vehemently insisted that the phrase “Red
Lines” be removed entirely from the text – although it was precisely these red 
lines that were our mandate. The published
document no longer contains any talk of “Red Lines”; three were completely 
deleted and the rest were watered down. Instead
there is only talk of “critical concerns”.


https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.html


Analoghe pressioni hanno luogo nell'ambito privato, affinché i danni da 
decisioni algoritmiche siano presentati come problemi tecnici,

di moralizzazione dell'algoritmo.

Qui una testimonianza:

https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/.


L'abuso dell'etica è una via di fuga dalla regolazione e, al momento, funziona 
benissimo,

quanto al raggiungimento dell'obiettivo prefissato.


I risultati straordinari ci sono senz'altro, ma alcune decisioni oggi affidate 
a sistemi di ML ne sottintendono una visione magica:
animistica, antropomorfizzante, che mostra i risultati nascondendo lavoro e 
effetti collaterali, e affine all'astrologia.

Grazie, buona domenica,
Daniela

________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi 
<atta...@di.unipi.it>
Inviato: domenica 23 ottobre 2022 12:57
A: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] Articolo What's wrong with "AI ethics" narratives

"The question of algorithmic decisions is a political issue, which requires a 
political answer. Allowing algorithms to judge human beings is the same as 
deciding to generate exclusion and inequality on the basis of irrelevant 
factors for the profit of a few large private corporations."

Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che 
sostiene che affrontare il problema dell'uso dell'AI attraverso la lente 
dell’etica sia fuorviante, mentre invece il problema è inerentemente un 
problema politico (di policies).

Però credo che a impostarlo in questo modo non siano state tanto le large 
corporations, a cui fa comunque comodo perché distoglie dai veri problemi di 
concentrazione e dominio economico, ma gli esperti selezionati dall’EC come 
consulenti e quelli che hanno portato alla stesura del demenziale European AI 
Act.
La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo 
dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha 
cambiato direzione spostando l'attenzione su questioni di regolamentazione.
L’European AI Act prevede la creazione di autorità di regolamentazione in 
ciascun paese dotate di adeguate risorse e un processo complicato di 
certificazione che lo stesso documento ritiene penalizzante per le SME.
A fronte di spese cospicue per realizzare queste strutture e i relativi 
“regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI.

Quindi, invece di investire nel padroneggiare la tecnologia e in particolare 
saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel 
tentativo di rallentarne l’adozione.

L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui 
LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo 
l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla 
società.

— Beppe

On 14 Oct 2022, at 18:01, 
nexa-requ...@server-nexa.polito.it<mailto:nexa-requ...@server-nexa.polito.it> 
wrote:

From: Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>>
To: "nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>" 
<nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>
Subject: [nexa] Articolo What's wrong with "AI ethics" narratives
Message-ID: 
<0aeb05e5f4724a5f91338c16bcb95...@unipi.it<mailto:0aeb05e5f4724a5f91338c16bcb95...@unipi.it>>
Content-Type: text/plain; charset="windows-1252"

Buongiorno.

Propongo alla revisione paritaria aperta un mio articolo su What's wrong with 
"AI ethics" narratives:
https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino 
telematico di filosofia 
politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>
commentbfp.sp.unipi.it<http://commentbfp.sp.unipi.it/>
PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A 
business model grounded on imposture: AI, cultural capture and regulatory 
capture 4. “AI ethics” narratives as mystification. The science fiction of AGI 
ethics…

Grazie, saluti,
Daniela Tafani


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to