"The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations."
Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies). Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act. La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione. L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME. A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI. Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione. L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società. — Beppe > On 14 Oct 2022, at 18:01, nexa-requ...@server-nexa.polito.it wrote: > > From: Daniela Tafani <daniela.taf...@unipi.it > <mailto:daniela.taf...@unipi.it>> > To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" > <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> > Subject: [nexa] Articolo What's wrong with "AI ethics" narratives > Message-ID: <0aeb05e5f4724a5f91338c16bcb95...@unipi.it > <mailto:0aeb05e5f4724a5f91338c16bcb95...@unipi.it>> > Content-Type: text/plain; charset="windows-1252" > > Buongiorno. > > Propongo alla revisione paritaria aperta un mio articolo su What's wrong with > "AI ethics" narratives: > https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ > > <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/> > Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino > telematico di filosofia > politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ > > <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>> > commentbfp.sp.unipi.it <http://commentbfp.sp.unipi.it/> > PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A > business model grounded on imposture: AI, cultural capture and regulatory > capture 4. “AI ethics” narratives as mystification. The science fiction of > AGI ethics… > > Grazie, saluti, > Daniela Tafani >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa