Salve Maurizio, On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
> anche se ne hai poi parlato sotto, mi pare che è qui che per te si > pone l'impossibilità di un'«etica delle AI» perché in senso stretto > essa implicherebbe che l'AI sia un soggetto autonomo, capace di > scelte autonome, di cui quindi si può valutare l'etica. ma questo > implicherebbe che l'AI sia dotata di agency come un soggetto umano > adulto senziente e ragionante, senza limitazioni. Esatto. Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i casi il software (e qualsiasi altra macchina) non ne ha. Parlare di "etica delle AI" è esattamente come parlare di "etica dei sassi" o di "etica delle macchine". L'etica, così come l'intelligenza o l'informazione, sono peculiarità del homo sapiens sapiens. Letteralmente: parte della sua definizione. Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei sassi a qualcuno verrebbe da ridere. Ma anche quando parliamo di macchine novecentesche parlare di "etica" appare subito evidentemente strumentale. Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato da una pressa, proponesse come alternativa all'introduzione di normative sulla sicurezza delle presse, l'adozione di un'etica delle presse. Con il software, a valle di un lungo lavoro di propaganda che Daniela ha descritto benissimo nel suo saggio [1], invece la gente può parlare di "etica delle AI" senza che tutti inizino a ridergli in faccia. Vengono persino invitati a parlare a conferenze, pubblicati su riviste di filosofia etc... Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità delle teorie terrapiattiste. E un po' come avvenne in passato con il sistema tolemaico, queste teorizzazioni servono gli interessi di chi comprende benissimo la loro fallacia, ma trae vantaggio dalla loro diffusione. > mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte > come progettista sia a valle come utilizzatore e non nell'artefatto. L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori. L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come ingranaggio, come capro espiatorio. Non era la prima volta che si "distraeva"... "alla guida". Tali "distrazioni" erano già state registrate da Uber che misurava, per massimizzarlo, il grado di confidenza dei passeggeri nella guida automatica (NON autonoma!). In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano una feature, non un problema. Dunque Rafaela Vasquez era eticamente irrilevante. Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad un topo di laboratorio e ad un capro espiatorio alla bisogna. Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza). Aveva percepito Elaine in tempo per evitarla, ma era stata configurata per non effettuare frenate di emergenza durante la guida "autonoma" in modo da "evitare un comportamento erratico del mezzo" che avrebbe provocato il mal d'auto ai passeggeri. Insomma, quella Volvo stava letteralmente applicando al mondo i valori di Uber, per cui la vita umana vale nettamente meno dei propri profitti. Ma invece di arrestare tutto il consiglio di amministrazione di Uber per omicidio, negli USA parlano di "Etica delle AI". La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti. Sono cose, insomma. Cose di scarso valore, peraltro. E' questo l'etica delle AI: una narrazione alienante costruita su un'altra narrazione alienante. > a quel punto la valutazione di capacità etica riguarda i progettisti > e gli utilizzatori e non è più questione di etica dell'AI in senso > proprio, ma di come si fa una progettazione di prodotti che sia etica > e un utilizzo di prodotti che sia etico. No, non è una questione di etica, ma di cultura e politica. Anzitutto bisogna comprendere come funzionano questi software. Per arrivarci dobbiamo abolire al più presto questo linguaggio antropomorfizzante (quando non religioso). Smettere di parlare di "intelligenza" o "allenamento" o "apprendimento" o "etica". Una volta compreso questo, si potrà smettere serenamente e consapevolmente di applicarli a persone o a dati di origine umana. Con la clonazione l'abbiamo fatto, con il software programmato statisticamente dobbiamo fare lo stesso. [2] A valle di tale moratoria internazionale, potremo decidere una normativa adeguata per le molte applicazioni che non riguardano direttamente esseri umani. Ad esempio, il trasporto merci su strade dedicate (magari sotterranee ed inaccessibili all'uomo). La massimizzazione della produzione agricola e così via... Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle cose serve solo gli interessi di chi le controlla. Dunque, non parliamo di etica delle AI. Semplicemente perché già le AI stesse non esistono! ;-) Parliamo piuttosto di etica delle aziende? Ok! Allora limitiamo superiormente il loro profitto, così che una volta raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere su qualsiasi altra considerazione. Giacomo PS: non sono certo di aver risposto a ciò che chiedevi... scusa. [1]: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ [2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto attenta e addestratissima supervisione di gruppi multidisciplinari, che potremo elencare esplicitamente. Penso ad esempio all'uso medico: nessun medico, da solo, può comprendere i pericoli dell'uso di un sistema programmato statisticamente, ma un team di medici e informatici molto preparati, insieme, potrebbe. Personalmente non riesco a pensare un'altro caso d'uso in cui l'uso (sotto attenta e scrupolosa supervisione umana) di questi strumenti possa giustificare i pericoli che comportano. Per assicurarci che nessuno ne abusi, potremmo però stabilire che nessun profitto può essere ottenuto dall'uso di dati umani, neanche in quei rarissimi casi in cui è autorizzato. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa