"The question of algorithmic decisions is a political issue, which requires a 
political answer. Allowing algorithms to judge human beings is the same as 
deciding to generate exclusion and inequality on the basis of irrelevant 
factors for the profit of a few large private corporations."

Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che 
sostiene che affrontare il problema dell'uso dell'AI attraverso la lente 
dell’etica sia fuorviante, mentre invece il problema è inerentemente un 
problema politico (di policies).

Però credo che a impostarlo in questo modo non siano state tanto le large 
corporations, a cui fa comunque comodo perché distoglie dai veri problemi di 
concentrazione e dominio economico, ma gli esperti selezionati dall’EC come 
consulenti e quelli che hanno portato alla stesura del demenziale European AI 
Act.
La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo 
dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha 
cambiato direzione spostando l'attenzione su questioni di regolamentazione.
L’European AI Act prevede la creazione di autorità di regolamentazione in 
ciascun paese dotate di adeguate risorse e un processo complicato di 
certificazione che lo stesso documento ritiene penalizzante per le SME.
A fronte di spese cospicue per realizzare queste strutture e i relativi 
“regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI.

Quindi, invece di investire nel padroneggiare la tecnologia e in particolare 
saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel 
tentativo di rallentarne l’adozione.

L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui 
LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo 
l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla 
società.

— Beppe

> On 14 Oct 2022, at 18:01, nexa-requ...@server-nexa.polito.it wrote:
> 
> From: Daniela Tafani <daniela.taf...@unipi.it 
> <mailto:daniela.taf...@unipi.it>>
> To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" 
> <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>>
> Subject: [nexa] Articolo What's wrong with "AI ethics" narratives
> Message-ID: <0aeb05e5f4724a5f91338c16bcb95...@unipi.it 
> <mailto:0aeb05e5f4724a5f91338c16bcb95...@unipi.it>>
> Content-Type: text/plain; charset="windows-1252"
> 
> Buongiorno.
> 
> Propongo alla revisione paritaria aperta un mio articolo su What's wrong with 
> "AI ethics" narratives:
> https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
>  
> <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>
> Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino 
> telematico di filosofia 
> politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
>  
> <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>>
> commentbfp.sp.unipi.it <http://commentbfp.sp.unipi.it/>
> PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A 
> business model grounded on imposture: AI, cultural capture and regulatory 
> capture 4. “AI ethics” narratives as mystification. The science fiction of 
> AGI ethics…
> 
> Grazie, saluti,
> Daniela Tafani
> 

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to