Gentile Alessandro, chiedo scusa se mi inserisco nella conversazione, ma volevo ricollegarmi a quanto dite riguardo alla propensione ad innovare della società in contesti di incertezza riguardo alle implicazioni delle nuove attività.
A tal proposito mi faceva piacere condivide con la lista queste riflessioni generali sul tema dell'eccessivo tecnottimismo in campo giuseconomico. https://www.cambridge.org/core/journals/journal-of-institutional-economics/article/on-legal-bubbles-some-thoughts-on-legal-shockwaves-at-the-core-of-the-digital-economy/62964F5EE993E8A7CC60EB4833FA71CA#article Il campo dell'intelligenza artificiale è particolarmente esposto a tali dinamiche di legal innovation hype e si intravedono bolle giuridiche all'orizzonte. I migliori auguri Marco Giraudo Le mer. 2 nov. 2022 à 13:41, <nexa-requ...@server-nexa.polito.it> a écrit : > Send nexa mailing list submissions to > nexa@server-nexa.polito.it > > To subscribe or unsubscribe via the World Wide Web, visit > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > or, via email, send a message with subject or body 'help' to > nexa-requ...@server-nexa.polito.it > > You can reach the person managing the list at > nexa-ow...@server-nexa.polito.it > > When replying, please edit your Subject line so it is more specific > than "Re: Contents of nexa digest..." > > > Today's Topics: > > 1. Re: ethical AI (era "It’s time to admit, self-driving cars > aren’t going to happen") (Alessandro Brolpito) > > > ---------------------------------------------------------------------- > > Message: 1 > Date: Wed, 2 Nov 2022 13:40:41 +0100 > From: Alessandro Brolpito <abrolp...@gmail.com> > To: Giacomo Tesio <giac...@tesio.it> > Cc: nexa@server-nexa.polito.it > Subject: Re: [nexa] ethical AI (era "It’s time to admit, > self-driving cars aren’t going to happen") > Message-ID: > <CABkhOK_jZjFunV_tfgrM4= > 1nu8vxzdsbmuu-+qvhht3d34q...@mail.gmail.com> > Content-Type: text/plain; charset="utf-8" > > Ciao Giacomo, > > Il fatto è che l'uomo ha sviluppato una capacità tecnologica che rende > immensamente facile fare cose e servizi nuove/i, senza lasciare il tempo di > analizzare e comprenderne il loro senso e soprattutto,i rischi e gli > effetti collaterali. > > E mentre noi scriviamo migliaia/milioni di persone/automi nel mondo > lavorano allo sviluppo sistemi basati sull'intelligenza artificiale, sempre > più chiusi, che limitano la ns autonomia offrendo "splendenti" automazoni. > Una spirale che andrebbe compresa meglio, basata su solidi principi > internazionali che al momento latitano. > > Ma come preservare l'autonomia umana? Chiaramente non sono in grado di > rispondere, ma penso che uno dei presupposti sia una consapevolezza e > competenza digitale collettiva (e non di pochi), che crei una forza d'urto > democratica, dal basso, attraverso una alfabetizzazione digitale di > altissimo rango, di massa, che copra l'intero percorso educativo di ciascun > individuo. E questo è già un problema enorme. > > Alessandro > > > On Mon, 31 Oct 2022 at 19:59, Giacomo Tesio <giac...@tesio.it> wrote: > > > Ciao Maurizio, > > > > sorvolo temporaneamente sull'aspetto esotico (la "AI") per concentrarmi > > sulla questione fondamentale, che si applica a qualsiasi software (e > > qualsiasi agente cibernetico artificiale, aziende, PA e governi inclusi) > > > > On Mon, 31 Oct 2022 09:01:20 +0100 maurizio lana wrote: > > > > > mi fa capire che non mi sono espresso bene usando il termine > > > "utilizzatore". [...] > > > abbiamo i progettisti del software, > > > e poi abbiamo l'agente di assicurazione che lo usa. > > > a mio modo di vedere l'agente (che qui è l'utilizzatore) è > > > responsabile per l'uso di quel software. [...] > > > l'utilizzatore dell'auto a guida autonoma può > > > decidere /non/ utilizzare un'auto a guida autonoma > > > > L'utente esiste solo mentre usa. > > > > La persona può scegliere di usare o meno il software, l'utente no. > > > > Come utente, è soggetto a regole più o meno stringenti a seconda dei > > valori e degli obbiettivi di chi ha scritto il software. > > > > Editor di testo come Acme, Emacs, Geany, Vim etc, ti offrono > > una libertà notevole, quasi illimitata, ci puoi programmare > > o tenere la lista della spesa. > > Letteralmente come un foglio bianco. > > > > Lo stesso si può dire di un linguaggio di programmazione general > > purpose, come possono essere C, Python, Haskell, Lisp o Java (giusto per > > fare qualche nome molto noto). > > > > > > Un ambiente RAD (Rapid Application Development) ti offre una > > libertà infinitamente inferiore, ti offre dei mattoncini > > preconfezionati che tu puoi combinare e configurare con > > una certa flessibilità, ma non puoi fare nulla che contrasti con gli > > interessi di chi te lo ha fornito. > > > > Analogamente un domain specific language può limitare enormemente > > la quantità di concetti che puoi esprimere. > > > > E naturalmente anche linguaggi general purpose diversi rendono > > più o meno facile ed intuitivo esprimere determinati concetti > > piuttosto che altri. > > > > > > Quando visiti un sito web che incorpora Google Fonts, i tuoi dati > > personali vengono inviati istantaneamente a Google senza nemmeno > > chiederti il permesso. > > > > Puoi NON visitare il sito web? > > Sì (se sai che cosa comporta tale visita a priori), ma smetti di essere > > "utente". > > > > > > Per questo la riduzione della persona ad utente è così aberrante. > > > > E' il passo subito precedente a ridurla consapevolmente ad ingranaggio. > > > > > > > > > proprio perché è > > > consapevole che in tal caso "può fare e pensare solo ciò che il > > > creatore dell'artefatto stesso ha deciso". se la usa, con più > > > consapevolezza o meno decide di obbedire al produttore dell'auto (è > > > detto in termini un po' brevi e rozzi ma il senso è chiaro). > > > > sì ma questa decisione si pone PRIMA di essere utente. > > > > l'utente ormai è utente, e può essere eticamente irrilevante. > > > > L'editor che ti permette di estendere e modificare sé stesso, pretende > > che tu mantenga la tua autonomia. L'editor che puoi solo usare, invece > > ti rende eticamente irrilevante (rispetto alle conseguenze dell'utilizzo > > dell'editor, non rispetto al testo che scrivi). > > > > Se Visual Studio Code ti suggerisce codice sotto GPL con una licenza > > diversa e tu lo accetti all'interno della tua codebase, violando il > > diritto d'autore di chi quel codice l'ha scritto, tu COME UTENTE non > > hai modo di sapere che VSCode ti sta spingendo a violare i diritti di > > terzi in quel caso specifico. > > > > > > Dunque non puoi rispondere moralmente di tale violenza, perché non è > > una tua scelta. Se venissi beccato, ne risponderesti legalmente. > > Ma la responsabilità morale di quella violenza è tutta di Microsoft. > > > > > > E' Microsoft che ha creato GitHub CopyALot per aprire un nuovo loophole > > nel copyleft, permettendo di scaricare su una cosa irresponsabile la > > responsabilità di qualunque violazione del copyright di autori del > > software libero. > > > > > > Tu puoi scegliere di NON usare Visual Studio Code (o disabilitare > > qualsiasi interazione con CopyALot) ma nel momento in cui lo usi, > > diventi eticamente irrilevante: violerai o non violerai i diritti di > > terzi sulla base di volontà altrui. > > > > Sei in sostanza un ingranaggio tu stesso. > > E se giri bene, ti senti pure produttivo! > > > > > > > molto si gioca tra consapevolezza/inconsapevolezza e > > > cautela/sprovvedutezza > > > > Questo è vero, ma parziale. > > > > Se dopo un incidente ti portano in ospedale e quell'ospedale usa il > > cloud di Microsoft, non c'è consapevolezza che tenga. > > > > Sei un oggetto. > > > > > > > se /so/ che i dispositivi a input vocale più > > > spesso che no ascoltano ininterrottamente l'ambiente e quindi > > > ascoltano ciò che dico anche quando non do comandi vocali, > > > consapevolezza e cautela mi porteranno a non acquistare quel tipo di > > > prodotti e ove disponibili preferirò le versioni dumb a quelle smart. > > > non perché sono un troglodita rimasto al tempo delle caverne, ma > > > proprio perché conosco il mondo digitale, la tecnologia, eccetera e > > > scelgo quale tecnologia voglio usare. > > > > Infatti la riduzione della persona all'utente punta alla sua riduzione > > ad ingranaggio ma nasce dalla sua riduzione a consumatore. > > > > L'idea che la libertà si riduca alla possibilità di scegliere un > > prodotto fra N sullo scaffale del (super)mercato. > > > > > > Come utente, non hai libertà (se non quella che io ti voglio concedere) > > > > Come consumatore, al limite, puoi scegliere di diventare utente di > > qualcos'altro (che limiterà la tua libertà in altro modo). > > > > > > E' questa la libertà per l'homo sapiens sapiens? > > > > NO! > > > > > > Gli uomini sono capaci di creare! Di sperimentare! Di esplorare! > > Di inventare alternative che non esistevano! > > > > (S)Fortunatamente possono essere convinti a ridursi a consumatori, a > > utenti o a ingranaggi. E' un processo lento, ma evidentemente efficace. > > > > > > > e quindi ad un successivo più alto livello tutto si gioca sul so/non > > > so, dove il so/non so non riguarda necessariamente lo specifico > > > prodotto, ma tipi di prodotti, tipi di questioni problematiche, > > > eccetera. che è poi una questione di literacy, di information > > > literacy: quanto ogni cittadino è attrezzato per vivere e operare in > > > questa società dell'informazione, e dell'informazione digitale? > > > > Già solo parlando di "digitale" o di "società dell'informazione" si > > allontana dalla consapevolezza di cui ha bisogno. > > > > La società in cui viviamo è cibernetica. > > Integra strettamente ed inesorabilmente autonomie (umane) e automatismi. > > > > Ma le autonomie sono quasi sempre compresse dagli automatismi: gli > > automatismi sono migliaia, ti invito a contare solo quelli sul tuo PC > > tenendo in conto che ogni software è un automatismo a sé stante. > > > > Inoltre, poiché non comprende il funzionamento di tali automatismi, la > > maggioranza delle persone le scambia per un fenomeno naturale. > > > > E' un bias evolutivo: ci siamo evoluti per milioni di anni in un sistema > > in cui la quasi totalità di ciò che non potevamo controllare non era > > controllato costantemente da altri esseri umani. > > > > Un eruzione vulcanica, una grandinata o un fulmine, non eseguivano la > > volontà di un'altro essere umano. > > > > Così quando vediamo che Google ci invia un messaggio pubblicitario di > > nostro interesse non stiamo a pensare alle implicazioni. > > Ci appare come un fenomeno naturale, ancora prima che intervenga il > > pensiero magico di cui parlava Daniela. > > > > > > L'unico modo per superare questa tara evolutiva è comprendere come > > funzionano gli automatismi che ci circondano, saperli creare e > > modificare, in modo tale da acquisire piena consapevolezza della > > loro natura. > > > > Ma non si tratta di "alfabetizzazione digitale", si tratta proprio di > > imparare faticosamente a programmare e debuggare il software, a > > leggerlo come leggiamo un thriller. > > > > > > > molti sono come gli analfabeti che firmavano i contratti mettendo una > > > croce e fidandosi di ciò che il proponente gli diceva. > > > > Letteralmente! > > > > > > > c'è molto da fare in formazione > > > > Sono assolutamente d'accordo. > > > > Alla dirigenza della CGIL, mesi fa, proponevo proprio questo. [1] > > > > > > > che è poi uscire dalla caverna e liberarsi dal dominio delle ombre. > > > > Non sono le ombre (il software) ad opprimervi, ma chi che le proietta. > > Spesso direttamente nelle vostre teste. ;-) > > > > > > ``` > > Morpheus: The Matrix is everywhere, it is all around us, even now > > in this very room. You can see it when you look out your window, or > > you turn on your television. You can feel it when you go to work, > > when you go to church, when you pay your taxes. It is the world that > > has been pulled over your eyes to blind you from the truth. > > > > Neo: What truth? > > > > Morpheus: That you are a slave, Neo. > > Like everyone else, you were born into bondage… born into a prison > > that you cannot smell or taste or touch. > > A prison for your mind. > > ``` > > > > > > Giacomo > > > > [1]: http://video.linuxtrent.it/w/3BBQ5rRqrzhoqiQDQ5is4e > > > > > > > Maurizio > > > > > > Il 30/10/22 23:12, Giacomo Tesio ha scritto: > > > > Salve Maurizio, > > > > > > > > On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote: > > > > > > > >> anche se ne hai poi parlato sotto, mi pare che è qui che per te si > > > >> pone l'impossibilità di un'«etica delle AI» perché in senso stretto > > > >> essa implicherebbe che l'AI sia un soggetto autonomo, capace di > > > >> scelte autonome, di cui quindi si può valutare l'etica. ma questo > > > >> implicherebbe che l'AI sia dotata di agency come un soggetto umano > > > >> adulto senziente e ragionante, senza limitazioni. > > > > Esatto. > > > > > > > > Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i > > > > casi il software (e qualsiasi altra macchina) non ne ha. > > > > > > > > Parlare di "etica delle AI" è esattamente come parlare di "etica dei > > > > sassi" o di "etica delle macchine". > > > > > > > > > > > > L'etica, così come l'intelligenza o l'informazione, sono peculiarità > > > > del homo sapiens sapiens. Letteralmente: parte della sua > > > > definizione. > > > > > > > > > > > > Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti > > > > che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei > > > > sassi a qualcuno verrebbe da ridere. > > > > > > > > Ma anche quando parliamo di macchine novecentesche parlare di > > > > "etica" appare subito evidentemente strumentale. > > > > > > > > Immaginate l'industriale che, all'ennesimo morto sul lavoro > > > > schiacciato da una pressa, proponesse come alternativa > > > > all'introduzione di normative sulla sicurezza delle presse, > > > > l'adozione di un'etica delle presse. > > > > > > > > > > > > Con il software, a valle di un lungo lavoro di propaganda che > > > > Daniela ha descritto benissimo nel suo saggio [1], invece la gente > > > > può parlare di "etica delle AI" senza che tutti inizino a ridergli > > > > in faccia. > > > > > > > > Vengono persino invitati a parlare a conferenze, pubblicati su > > > > riviste di filosofia etc... > > > > > > > > Dal punto di vista oggettivo, i loro argomenti hanno la stessa > > > > solidità delle teorie terrapiattiste. > > > > > > > > E un po' come avvenne in passato con il sistema tolemaico, queste > > > > teorizzazioni servono gli interessi di chi comprende benissimo la > > > > loro fallacia, ma trae vantaggio dalla loro diffusione. > > > > > > > > > > > >> mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte > > > >> come progettista sia a valle come utilizzatore e non > > > >> nell'artefatto. > > > > L'artefatto non ha etica. > > > > Esprime l'etica di chi l'ha costruito, imprimendola al resto del > > > > mondo. > > > > > > > > Ne riproduce la volontà. > > > > Ne diffonde i valori. > > > > > > > > > > > > L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente > > > > irrilevante. Se non può alterare concretamente e consapevolmente il > > > > funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può > > > > fare e pensare solo ciò che il creatore dell'artefatto stesso ha > > > > deciso. > > > > > > > > Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine > > > > Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come > > > > ingranaggio, come capro espiatorio. Non era la prima volta che si > > > > "distraeva"... "alla guida". Tali "distrazioni" erano già state > > > > registrate da Uber che misurava, per massimizzarlo, il grado di > > > > confidenza dei passeggeri nella guida automatica (NON autonoma!). > > > > > > > > In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano > > > > una feature, non un problema. > > > > > > > > Dunque Rafaela Vasquez era eticamente irrilevante. > > > > Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, > > > > ad un topo di laboratorio e ad un capro espiatorio alla bisogna. > > > > > > > > > > > > Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza). > > > > > > > > Aveva percepito Elaine in tempo per evitarla, ma era stata > > > > configurata per non effettuare frenate di emergenza durante la > > > > guida "autonoma" in modo da "evitare un comportamento erratico del > > > > mezzo" che avrebbe provocato il mal d'auto ai passeggeri. > > > > > > > > Insomma, quella Volvo stava letteralmente applicando al mondo i > > > > valori di Uber, per cui la vita umana vale nettamente meno dei > > > > propri profitti. > > > > > > > > Ma invece di arrestare tutto il consiglio di amministrazione di > > > > Uber per omicidio, negli USA parlano di "Etica delle AI". > > > > > > > > > > > > La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti. > > > > Sono cose, insomma. Cose di scarso valore, peraltro. > > > > > > > > > > > > E' questo l'etica delle AI: una narrazione alienante costruita su > > > > un'altra narrazione alienante. > > > > > > > > > > > >> a quel punto la valutazione di capacità etica riguarda i > > > >> progettisti e gli utilizzatori e non è più questione di etica > > > >> dell'AI in senso proprio, ma di come si fa una progettazione di > > > >> prodotti che sia etica e un utilizzo di prodotti che sia etico. > > > > No, non è una questione di etica, ma di cultura e politica. > > > > > > > > Anzitutto bisogna comprendere come funzionano questi software. > > > > > > > > Per arrivarci dobbiamo abolire al più presto questo linguaggio > > > > antropomorfizzante (quando non religioso). Smettere di parlare > > > > di "intelligenza" o "allenamento" o "apprendimento" o "etica". > > > > > > > > > > > > Una volta compreso questo, si potrà smettere serenamente e > > > > consapevolmente di applicarli a persone o a dati di origine umana. > > > > > > > > Con la clonazione l'abbiamo fatto, con il software programmato > > > > statisticamente dobbiamo fare lo stesso. [2] > > > > > > > > > > > > A valle di tale moratoria internazionale, potremo decidere una > > > > normativa adeguata per le molte applicazioni che non riguardano > > > > direttamente esseri umani. > > > > > > > > Ad esempio, il trasporto merci su strade dedicate (magari > > > > sotterranee ed inaccessibili all'uomo). La massimizzazione della > > > > produzione agricola e così via... > > > > > > > > > > > > Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle > > > > cose serve solo gli interessi di chi le controlla. > > > > > > > > > > > > Dunque, non parliamo di etica delle AI. > > > > Semplicemente perché già le AI stesse non esistono! ;-) > > > > > > > > > > > > Parliamo piuttosto di etica delle aziende? > > > > Ok! Allora limitiamo superiormente il loro profitto, così che una > > > > volta raggiunto il tetto, la massimizzazione dei profitti smetta di > > > > prevalere su qualsiasi altra considerazione. > > > > > > > > > > > > Giacomo > > > > > > > > PS: non sono certo di aver risposto a ciò che chiedevi... scusa. > > > > > > > > > > > > [1]: > > > > > > > https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ > > > > > > > > [2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli > > > > sotto attenta e addestratissima supervisione di gruppi > > > > multidisciplinari, che potremo elencare esplicitamente. > > > > > > > > Penso ad esempio all'uso medico: nessun medico, da solo, può > > > > comprendere i pericoli dell'uso di un sistema programmato > > > > statisticamente, ma un team di medici e informatici molto > > > > preparati, insieme, potrebbe. > > > > > > > > Personalmente non riesco a pensare un'altro caso d'uso in cui > > > > l'uso (sotto attenta e scrupolosa supervisione umana) di > > > > questi strumenti possa giustificare i pericoli che comportano. > > > > > > > > Per assicurarci che nessuno ne abusi, potremmo però stabilire > > > > che nessun profitto può essere ottenuto dall'uso di dati umani, > > > > neanche in quei rarissimi casi in cui è autorizzato. > > > > > > > > > > ------------------------------------------------------------------------ > > > > > > many of us believe the EU remains > > > the most extraordinary, ambitious, liberal > > > political alliance in recorded history. > > > where it needs reform, where it needs to evolve, > > > we should be there to help turn that heavy wheel > > > i. mcewan, the guardian, 2/6/2017 > > > > > > > ------------------------------------------------------------------------ > > > Maurizio Lana > > > Università del Piemonte Orientale > > > Dipartimento di Studi Umanistici > > > Piazza Roma 36 - 13100 Vercelli > > > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > -------------- next part -------------- > An HTML attachment was scrubbed... > URL: < > http://server-nexa.polito.it/pipermail/nexa/attachments/20221102/61ea3ea0/attachment.htm > > > > ------------------------------ > > Subject: Digest Footer > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > ------------------------------ > > End of nexa Digest, Vol 163, Issue 3 > ************************************ > -- Marco Giraudo Università degli Studi di Torino Dipartimento di Giurisprudenza - Collegio Carlo Alberto <https://www.carloalberto.org/person/marco-giraudo/> Ph.D in Institutions Economics and Law
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa