...continuando a pensare su questo tema, al di là dei titoli dei thread,
credo che la questione artefatto - responsabilità - progettisti -
utilizzatori
sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne
riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e
pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
trovo problematico affermare che "l'utilizzatore, nella stragrande
maggioranza dei casi, è eticamente irrilevante."
chi utilizza un coltello per uccidere la compagna, o i contractors di
Wagner che usano un martello per uccidere un compagno; non mi paiono
eticamente irrilevanti; e quindi direi al contrario che nella stragrande
maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante.
poi capisco che l'argomentazione sia venuta nella forma inversa
"l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante" perché essa preparava la presentazione del caso "Rafaela
Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì
certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un
caso particolare.
il caso generale rimane che l’utilizzatore di un artefatto è eticamente
rilevante (in caso contrario assolviamo tutti gli assassini che per
uccidere usano artefatti) e come in tutti i casi di responsabilità
etica, la conoscenza e la consapevolezza contano. se sappiamo che le
auto autonome possono uccidere mentre ci trasportano possiamo pensare
che esse ci esautorano dalla responsabilità per i danni che possono
causare mentre ci trasportano; _o possiamo decidere di non usarle_
fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo
artefatti (con o senza IA) che complicano la questione della
responsabilità dell'utilizzatore; ma il principio generale non mi pare
che possa cambiare.
Maurozoo
Il 31/10/22 09:01, Giacomo Tesio <giac...@tesio.it> ha scritto:
Date: Sun, 30 Oct 2022 23:12:30 +0100
From: Giacomo Tesio<giac...@tesio.it>
To: maurizio lana<maurizio.l...@uniupo.it>
Cc:nexa@server-nexa.polito.it
Subject: Re: [nexa] ethical AI (era "It’s time to admit,
self-driving cars aren’t going to happen")
Message-ID:<20221030231230.00007...@tesio.it>
Content-Type: text/plain; charset=ISO-8859-1
Salve Maurizio,
On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
anche se ne hai poi parlato sotto, mi pare che è qui che per te si
pone l'impossibilità di un'«etica delle AI» perché in senso stretto
essa implicherebbe che l'AI sia un soggetto autonomo, capace di
scelte autonome, di cui quindi si può valutare l'etica. ma questo
implicherebbe che l'AI sia dotata di agency come un soggetto umano
adulto senziente e ragionante, senza limitazioni.
Esatto.
Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i
casi il software (e qualsiasi altra macchina) non ne ha.
Parlare di "etica delle AI" è esattamente come parlare di "etica dei
sassi" o di "etica delle macchine".
L'etica, così come l'intelligenza o l'informazione, sono peculiarità
del homo sapiens sapiens. Letteralmente: parte della sua definizione.
Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti
che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei
sassi a qualcuno verrebbe da ridere.
Ma anche quando parliamo di macchine novecentesche parlare di "etica"
appare subito evidentemente strumentale.
Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato
da una pressa, proponesse come alternativa all'introduzione di
normative sulla sicurezza delle presse, l'adozione di
un'etica delle presse.
Con il software, a valle di un lungo lavoro di propaganda che Daniela
ha descritto benissimo nel suo saggio [1], invece la gente può parlare
di "etica delle AI" senza che tutti inizino a ridergli in faccia.
Vengono persino invitati a parlare a conferenze, pubblicati su riviste
di filosofia etc...
Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità
delle teorie terrapiattiste.
E un po' come avvenne in passato con il sistema tolemaico, queste
teorizzazioni servono gli interessi di chi comprende benissimo la loro
fallacia, ma trae vantaggio dalla loro diffusione.
mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte
come progettista sia a valle come utilizzatore e non nell'artefatto.
L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo.
Ne riproduce la volontà.
Ne diffonde i valori.
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare
e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come
ingranaggio, come capro espiatorio. Non era la prima volta che si
"distraeva"... "alla guida". Tali "distrazioni" erano già state
registrate da Uber che misurava, per massimizzarlo, il grado di
confidenza dei passeggeri nella guida automatica (NON autonoma!).
In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano
una feature, non un problema.
Dunque Rafaela Vasquez era eticamente irrilevante.
Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad
un topo di laboratorio e ad un capro espiatorio alla bisogna.
Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).
Aveva percepito Elaine in tempo per evitarla, ma era stata configurata
per non effettuare frenate di emergenza durante la guida "autonoma" in
modo da "evitare un comportamento erratico del mezzo" che avrebbe
provocato il mal d'auto ai passeggeri.
Insomma, quella Volvo stava letteralmente applicando al mondo i valori
di Uber, per cui la vita umana vale nettamente meno dei propri profitti.
Ma invece di arrestare tutto il consiglio di amministrazione di Uber per
omicidio, negli USA parlano di "Etica delle AI".
La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti.
Sono cose, insomma. Cose di scarso valore, peraltro.
E' questo l'etica delle AI: una narrazione alienante costruita su
un'altra narrazione alienante.
a quel punto la valutazione di capacità etica riguarda i progettisti
e gli utilizzatori e non è più questione di etica dell'AI in senso
proprio, ma di come si fa una progettazione di prodotti che sia etica
e un utilizzo di prodotti che sia etico.
No, non è una questione di etica, ma di cultura e politica.
Anzitutto bisogna comprendere come funzionano questi software.
Per arrivarci dobbiamo abolire al più presto questo linguaggio
antropomorfizzante (quando non religioso). Smettere di parlare
di "intelligenza" o "allenamento" o "apprendimento" o "etica".
Una volta compreso questo, si potrà smettere serenamente e
consapevolmente di applicarli a persone o a dati di origine umana.
Con la clonazione l'abbiamo fatto, con il software programmato
statisticamente dobbiamo fare lo stesso. [2]
A valle di tale moratoria internazionale, potremo decidere una normativa
adeguata per le molte applicazioni che non riguardano direttamente
esseri umani.
Ad esempio, il trasporto merci su strade dedicate (magari sotterranee
ed inaccessibili all'uomo). La massimizzazione della produzione
agricola e così via...
Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle
cose serve solo gli interessi di chi le controlla.
Dunque, non parliamo di etica delle AI.
Semplicemente perché già le AI stesse non esistono! ;-)
Parliamo piuttosto di etica delle aziende?
Ok! Allora limitiamo superiormente il loro profitto, così che una volta
raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere
su qualsiasi altra considerazione.
Giacomo
PS: non sono certo di aver risposto a ciò che chiedevi... scusa.
[1]:
https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
[2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto
attenta e addestratissima supervisione di gruppi multidisciplinari,
che potremo elencare esplicitamente.
Penso ad esempio all'uso medico: nessun medico, da solo, può
comprendere i pericoli dell'uso di un sistema programmato
statisticamente, ma un team di medici e informatici molto
preparati, insieme, potrebbe.
Personalmente non riesco a pensare un'altro caso d'uso in cui
l'uso (sotto attenta e scrupolosa supervisione umana) di questi
strumenti possa giustificare i pericoli che comportano.
Per assicurarci che nessuno ne abusi, potremmo però stabilire che
nessun profitto può essere ottenuto dall'uso di dati umani, neanche
in quei rarissimi casi in cui è autorizzato.
------------------------------------------------------------------------
the knowledge gap between rich and poor is widening
witten and bainbridge, how to build a digital library
------------------------------------------------------------------------
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa