ciao Giacomo,
la tua frase
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare
e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
mi fa capire che non mi sono espresso bene usando il termine "utilizzatore".
o che il termine ha un ventaglio di significati a cui non pensavo.
il significato a cui pensavo era di questo tipo:
software di IA che definisce chi può stipulare un contatto di
assicurazione vita
abbiamo i progettisti del software,
e poi abbiamo l'agente di assicurazione che lo usa.
a mio modo di vedere l'agente (che qui è l'utilizzatore) è responsabile
per l'uso di quel software.
proprio perché (ti cito)
L'uomo è autonomo, l'artefatto no.
Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le
regole
di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile.
Può essere convinto a non esercitare questa autonomia, "perché non è giusto",
"perché il padrone è buono", "perché we shall do no evil", "perché funziona
così",
per paura, [/perché non vuole/non può perdere il lavoro/], etc...
Ma continua ontologicamente ad essere autonomo.
mentre nello specifico dell'utilizzatore di un'auto a guida autonoma, di
cui dici
Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare
e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
non sono d'accordo. l'utilizzatore dell'auto a guida autonoma può
decidere /non/ utilizzare un'auto a guida autonoma proprio perché è
consapevole che in tal caso "può fare e pensare solo ciò che il creatore
dell'artefatto stesso ha deciso". se la usa, con più consapevolezza o
meno decide di obbedire al produttore dell'auto (è detto in termini un
po' brevi e rozzi ma il senso è chiaro).
molto si gioca tra consapevolezza/inconsapevolezza e
cautela/sprovvedutezza: se /so/ che i dispositivi a input vocale più
spesso che no ascoltano ininterrottamente l'ambiente e quindi ascoltano
ciò che dico anche quando non do comandi vocali, consapevolezza e
cautela mi porteranno a non acquistare quel tipo di prodotti e ove
disponibili preferirò le versioni dumb a quelle smart. non perché sono
un troglodita rimasto al tempo delle caverne, ma proprio perché conosco
il mondo digitale, la tecnologia, eccetera e scelgo quale tecnologia
voglio usare.
e quindi ad un successivo più alto livello tutto si gioca sul so/non so,
dove il so/non so non riguarda necessariamente lo specifico prodotto, ma
tipi di prodotti, tipi di questioni problematiche, eccetera. che è poi
una questione di literacy, di information literacy: quanto ogni
cittadino è attrezzato per vivere e operare in questa società
dell'informazione, e dell'informazione digitale?
molti sono come gli analfabeti che firmavano i contratti mettendo una
croce e fidandosi di ciò che il proponente gli diceva.
c'è molto da fare in formazione - che è poi uscire dalla caverna e
liberarsi dal dominio delle ombre.
Maurizio
Il 30/10/22 23:12, Giacomo Tesio ha scritto:
Salve Maurizio,
On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
anche se ne hai poi parlato sotto, mi pare che è qui che per te si
pone l'impossibilità di un'«etica delle AI» perché in senso stretto
essa implicherebbe che l'AI sia un soggetto autonomo, capace di
scelte autonome, di cui quindi si può valutare l'etica. ma questo
implicherebbe che l'AI sia dotata di agency come un soggetto umano
adulto senziente e ragionante, senza limitazioni.
Esatto.
Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i
casi il software (e qualsiasi altra macchina) non ne ha.
Parlare di "etica delle AI" è esattamente come parlare di "etica dei
sassi" o di "etica delle macchine".
L'etica, così come l'intelligenza o l'informazione, sono peculiarità
del homo sapiens sapiens. Letteralmente: parte della sua definizione.
Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti
che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei
sassi a qualcuno verrebbe da ridere.
Ma anche quando parliamo di macchine novecentesche parlare di "etica"
appare subito evidentemente strumentale.
Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato
da una pressa, proponesse come alternativa all'introduzione di
normative sulla sicurezza delle presse, l'adozione di
un'etica delle presse.
Con il software, a valle di un lungo lavoro di propaganda che Daniela
ha descritto benissimo nel suo saggio [1], invece la gente può parlare
di "etica delle AI" senza che tutti inizino a ridergli in faccia.
Vengono persino invitati a parlare a conferenze, pubblicati su riviste
di filosofia etc...
Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità
delle teorie terrapiattiste.
E un po' come avvenne in passato con il sistema tolemaico, queste
teorizzazioni servono gli interessi di chi comprende benissimo la loro
fallacia, ma trae vantaggio dalla loro diffusione.
mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte
come progettista sia a valle come utilizzatore e non nell'artefatto.
L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo.
Ne riproduce la volontà.
Ne diffonde i valori.
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare
e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come
ingranaggio, come capro espiatorio. Non era la prima volta che si
"distraeva"... "alla guida". Tali "distrazioni" erano già state
registrate da Uber che misurava, per massimizzarlo, il grado di
confidenza dei passeggeri nella guida automatica (NON autonoma!).
In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano
una feature, non un problema.
Dunque Rafaela Vasquez era eticamente irrilevante.
Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad
un topo di laboratorio e ad un capro espiatorio alla bisogna.
Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).
Aveva percepito Elaine in tempo per evitarla, ma era stata configurata
per non effettuare frenate di emergenza durante la guida "autonoma" in
modo da "evitare un comportamento erratico del mezzo" che avrebbe
provocato il mal d'auto ai passeggeri.
Insomma, quella Volvo stava letteralmente applicando al mondo i valori
di Uber, per cui la vita umana vale nettamente meno dei propri profitti.
Ma invece di arrestare tutto il consiglio di amministrazione di Uber per
omicidio, negli USA parlano di "Etica delle AI".
La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti.
Sono cose, insomma. Cose di scarso valore, peraltro.
E' questo l'etica delle AI: una narrazione alienante costruita su
un'altra narrazione alienante.
a quel punto la valutazione di capacità etica riguarda i progettisti
e gli utilizzatori e non è più questione di etica dell'AI in senso
proprio, ma di come si fa una progettazione di prodotti che sia etica
e un utilizzo di prodotti che sia etico.
No, non è una questione di etica, ma di cultura e politica.
Anzitutto bisogna comprendere come funzionano questi software.
Per arrivarci dobbiamo abolire al più presto questo linguaggio
antropomorfizzante (quando non religioso). Smettere di parlare
di "intelligenza" o "allenamento" o "apprendimento" o "etica".
Una volta compreso questo, si potrà smettere serenamente e
consapevolmente di applicarli a persone o a dati di origine umana.
Con la clonazione l'abbiamo fatto, con il software programmato
statisticamente dobbiamo fare lo stesso. [2]
A valle di tale moratoria internazionale, potremo decidere una normativa
adeguata per le molte applicazioni che non riguardano direttamente
esseri umani.
Ad esempio, il trasporto merci su strade dedicate (magari sotterranee
ed inaccessibili all'uomo). La massimizzazione della produzione
agricola e così via...
Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle
cose serve solo gli interessi di chi le controlla.
Dunque, non parliamo di etica delle AI.
Semplicemente perché già le AI stesse non esistono! ;-)
Parliamo piuttosto di etica delle aziende?
Ok! Allora limitiamo superiormente il loro profitto, così che una volta
raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere
su qualsiasi altra considerazione.
Giacomo
PS: non sono certo di aver risposto a ciò che chiedevi... scusa.
[1]:
https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
[2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto
attenta e addestratissima supervisione di gruppi multidisciplinari,
che potremo elencare esplicitamente.
Penso ad esempio all'uso medico: nessun medico, da solo, può
comprendere i pericoli dell'uso di un sistema programmato
statisticamente, ma un team di medici e informatici molto
preparati, insieme, potrebbe.
Personalmente non riesco a pensare un'altro caso d'uso in cui
l'uso (sotto attenta e scrupolosa supervisione umana) di questi
strumenti possa giustificare i pericoli che comportano.
Per assicurarci che nessuno ne abusi, potremmo però stabilire che
nessun profitto può essere ottenuto dall'uso di dati umani, neanche
in quei rarissimi casi in cui è autorizzato.
------------------------------------------------------------------------
many of us believe the EU remains
the most extraordinary, ambitious, liberal
political alliance in recorded history.
where it needs reform, where it needs to evolve,
we should be there to help turn that heavy wheel
i. mcewan, the guardian, 2/6/2017
------------------------------------------------------------------------
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa