Salve Maurizio,

On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:

> anche se ne hai poi parlato sotto, mi pare che è qui che per te si
> pone l'impossibilità di un'«etica delle AI» perché in senso stretto
> essa implicherebbe che l'AI sia un soggetto autonomo, capace di
> scelte autonome, di cui quindi si può valutare l'etica. ma questo
> implicherebbe che l'AI sia dotata di agency come un soggetto umano
> adulto senziente e ragionante, senza limitazioni.

Esatto.

Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i
casi il software (e qualsiasi altra macchina) non ne ha.

Parlare di "etica delle AI" è esattamente come parlare di "etica dei
sassi" o di "etica delle macchine".


L'etica, così come l'intelligenza o l'informazione, sono peculiarità
del homo sapiens sapiens. Letteralmente: parte della sua definizione.


Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti
che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei
sassi a qualcuno verrebbe da ridere.

Ma anche quando parliamo di macchine novecentesche parlare di "etica"
appare subito evidentemente strumentale.

Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato
da una pressa, proponesse come alternativa all'introduzione di
normative sulla sicurezza delle presse, l'adozione di 
un'etica delle presse.


Con il software, a valle di un lungo lavoro di propaganda che Daniela
ha descritto benissimo nel suo saggio [1], invece la gente può parlare
di "etica delle AI" senza che tutti inizino a ridergli in faccia.

Vengono persino invitati a parlare a conferenze, pubblicati su riviste
di filosofia etc...

Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità
delle teorie terrapiattiste.

E un po' come avvenne in passato con il sistema tolemaico, queste
teorizzazioni servono gli interessi di chi comprende benissimo la loro
fallacia, ma trae vantaggio dalla loro diffusione.


> mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte
> come progettista sia a valle come utilizzatore e non nell'artefatto.

L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo.

Ne riproduce la volontà.
Ne diffonde i valori.


L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare
e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.

Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come
ingranaggio, come capro espiatorio. Non era la prima volta che si
"distraeva"... "alla guida". Tali "distrazioni" erano già state
registrate da Uber che misurava, per massimizzarlo, il grado di
confidenza dei passeggeri nella guida automatica (NON autonoma!).

In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano
una feature, non un problema.

Dunque Rafaela Vasquez era eticamente irrilevante.
Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad
un topo di laboratorio e ad un capro espiatorio alla bisogna.


Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).

Aveva percepito Elaine in tempo per evitarla, ma era stata configurata
per non effettuare frenate di emergenza durante la guida "autonoma" in
modo da "evitare un comportamento erratico del mezzo" che avrebbe
provocato il mal d'auto ai passeggeri.

Insomma, quella Volvo stava letteralmente applicando al mondo i valori
di Uber, per cui la vita umana vale nettamente meno dei propri profitti.

Ma invece di arrestare tutto il consiglio di amministrazione di Uber per
omicidio, negli USA parlano di "Etica delle AI".


La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti.
Sono cose, insomma. Cose di scarso valore, peraltro.


E' questo l'etica delle AI: una narrazione alienante costruita su
un'altra narrazione alienante.


> a quel punto la valutazione di capacità etica riguarda i progettisti
> e gli utilizzatori e non è più questione di etica dell'AI in senso
> proprio, ma di come si fa una progettazione di prodotti che sia etica
> e un utilizzo di prodotti che sia etico.

No, non è una questione di etica, ma di cultura e politica.

Anzitutto bisogna comprendere come funzionano questi software.

Per arrivarci dobbiamo abolire al più presto questo linguaggio
antropomorfizzante (quando non religioso). Smettere di parlare
di "intelligenza" o "allenamento" o "apprendimento" o "etica".


Una volta compreso questo, si potrà smettere serenamente e
consapevolmente di applicarli a persone o a dati di origine umana.

Con la clonazione l'abbiamo fatto, con il software programmato
statisticamente dobbiamo fare lo stesso. [2]


A valle di tale moratoria internazionale, potremo decidere una normativa
adeguata per le molte applicazioni che non riguardano direttamente
esseri umani.

Ad esempio, il trasporto merci su strade dedicate (magari sotterranee
ed inaccessibili all'uomo). La massimizzazione della produzione
agricola e così via...


Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle
cose serve solo gli interessi di chi le controlla.


Dunque, non parliamo di etica delle AI.
Semplicemente perché già le AI stesse non esistono! ;-)


Parliamo piuttosto di etica delle aziende?
Ok! Allora limitiamo superiormente il loro profitto, così che una volta
raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere
su qualsiasi altra considerazione.


Giacomo

PS: non sono certo di aver risposto a ciò che chiedevi... scusa.


[1]:
https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/

[2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto
     attenta e addestratissima supervisione di gruppi multidisciplinari,
     che potremo elencare esplicitamente.

     Penso ad esempio all'uso medico: nessun medico, da solo, può
     comprendere i pericoli dell'uso di un sistema programmato
     statisticamente, ma un team di medici e informatici molto
     preparati, insieme, potrebbe.

     Personalmente non riesco a pensare un'altro caso d'uso in cui
     l'uso (sotto attenta e scrupolosa supervisione umana) di questi
     strumenti possa giustificare i pericoli che comportano.

     Per assicurarci che nessuno ne abusi, potremmo però stabilire che
     nessun profitto può essere ottenuto dall'uso di dati umani, neanche
     in quei rarissimi casi in cui è autorizzato.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to