Buonasera Marco, Grazie per aver partecipato allo scambio e soprattutto per la risorsa condivisa; con basi molte più scientifiche rispetto al mio breve messaggio, si evidenzia la dinamicità e la relativa incertezza nel quale sia le imprese che gli organi normativi si trovano ad operare.
Mi sembra che le stesse turbolenze si applicano ai sistemi d'istruzione, con l'ulteriore difficoltà di garantire inclusione ed equità, attraverso meccanismi complessi e costosi, quali la personalizzazione ed individualizzazione dell'apprendimento, che possono/devono migliore anche attraverso l'applicazione di soluzioni digitali.Ma come usarli in modo efficace e nel rispetto del quadro normativo vigenti (e futuri) rimane materia assai ardua. Alessandro On Wed, 2 Nov 2022 at 14:26, Marco Giraudo <marco.gira...@unito.it> wrote: > Gentile Alessandro, > > chiedo scusa se mi inserisco nella conversazione, ma volevo ricollegarmi a > quanto dite riguardo alla propensione ad innovare della società in contesti > di incertezza riguardo alle implicazioni delle nuove attività. > > A tal proposito mi faceva piacere condivide con la lista queste > riflessioni generali sul tema dell'eccessivo tecnottimismo in campo > giuseconomico. > > > https://www.cambridge.org/core/journals/journal-of-institutional-economics/article/on-legal-bubbles-some-thoughts-on-legal-shockwaves-at-the-core-of-the-digital-economy/62964F5EE993E8A7CC60EB4833FA71CA#article > > Il campo dell'intelligenza artificiale è particolarmente esposto a tali > dinamiche di legal innovation hype e si intravedono bolle giuridiche > all'orizzonte. > > I migliori auguri > > Marco Giraudo > > > Le mer. 2 nov. 2022 à 13:41, <nexa-requ...@server-nexa.polito.it> a > écrit : > >> Send nexa mailing list submissions to >> nexa@server-nexa.polito.it >> >> To subscribe or unsubscribe via the World Wide Web, visit >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> or, via email, send a message with subject or body 'help' to >> nexa-requ...@server-nexa.polito.it >> >> You can reach the person managing the list at >> nexa-ow...@server-nexa.polito.it >> >> When replying, please edit your Subject line so it is more specific >> than "Re: Contents of nexa digest..." >> >> >> Today's Topics: >> >> 1. Re: ethical AI (era "It’s time to admit, self-driving cars >> aren’t going to happen") (Alessandro Brolpito) >> >> >> ---------------------------------------------------------------------- >> >> Message: 1 >> Date: Wed, 2 Nov 2022 13:40:41 +0100 >> From: Alessandro Brolpito <abrolp...@gmail.com> >> To: Giacomo Tesio <giac...@tesio.it> >> Cc: nexa@server-nexa.polito.it >> Subject: Re: [nexa] ethical AI (era "It’s time to admit, >> self-driving cars aren’t going to happen") >> Message-ID: >> <CABkhOK_jZjFunV_tfgrM4= >> 1nu8vxzdsbmuu-+qvhht3d34q...@mail.gmail.com> >> Content-Type: text/plain; charset="utf-8" >> >> Ciao Giacomo, >> >> Il fatto è che l'uomo ha sviluppato una capacità tecnologica che rende >> immensamente facile fare cose e servizi nuove/i, senza lasciare il tempo >> di >> analizzare e comprenderne il loro senso e soprattutto,i rischi e gli >> effetti collaterali. >> >> E mentre noi scriviamo migliaia/milioni di persone/automi nel mondo >> lavorano allo sviluppo sistemi basati sull'intelligenza artificiale, >> sempre >> più chiusi, che limitano la ns autonomia offrendo "splendenti" automazoni. >> Una spirale che andrebbe compresa meglio, basata su solidi principi >> internazionali che al momento latitano. >> >> Ma come preservare l'autonomia umana? Chiaramente non sono in grado di >> rispondere, ma penso che uno dei presupposti sia una consapevolezza e >> competenza digitale collettiva (e non di pochi), che crei una forza d'urto >> democratica, dal basso, attraverso una alfabetizzazione digitale di >> altissimo rango, di massa, che copra l'intero percorso educativo di >> ciascun >> individuo. E questo è già un problema enorme. >> >> Alessandro >> >> >> On Mon, 31 Oct 2022 at 19:59, Giacomo Tesio <giac...@tesio.it> wrote: >> >> > Ciao Maurizio, >> > >> > sorvolo temporaneamente sull'aspetto esotico (la "AI") per concentrarmi >> > sulla questione fondamentale, che si applica a qualsiasi software (e >> > qualsiasi agente cibernetico artificiale, aziende, PA e governi inclusi) >> > >> > On Mon, 31 Oct 2022 09:01:20 +0100 maurizio lana wrote: >> > >> > > mi fa capire che non mi sono espresso bene usando il termine >> > > "utilizzatore". [...] >> > > abbiamo i progettisti del software, >> > > e poi abbiamo l'agente di assicurazione che lo usa. >> > > a mio modo di vedere l'agente (che qui è l'utilizzatore) è >> > > responsabile per l'uso di quel software. [...] >> > > l'utilizzatore dell'auto a guida autonoma può >> > > decidere /non/ utilizzare un'auto a guida autonoma >> > >> > L'utente esiste solo mentre usa. >> > >> > La persona può scegliere di usare o meno il software, l'utente no. >> > >> > Come utente, è soggetto a regole più o meno stringenti a seconda dei >> > valori e degli obbiettivi di chi ha scritto il software. >> > >> > Editor di testo come Acme, Emacs, Geany, Vim etc, ti offrono >> > una libertà notevole, quasi illimitata, ci puoi programmare >> > o tenere la lista della spesa. >> > Letteralmente come un foglio bianco. >> > >> > Lo stesso si può dire di un linguaggio di programmazione general >> > purpose, come possono essere C, Python, Haskell, Lisp o Java (giusto per >> > fare qualche nome molto noto). >> > >> > >> > Un ambiente RAD (Rapid Application Development) ti offre una >> > libertà infinitamente inferiore, ti offre dei mattoncini >> > preconfezionati che tu puoi combinare e configurare con >> > una certa flessibilità, ma non puoi fare nulla che contrasti con gli >> > interessi di chi te lo ha fornito. >> > >> > Analogamente un domain specific language può limitare enormemente >> > la quantità di concetti che puoi esprimere. >> > >> > E naturalmente anche linguaggi general purpose diversi rendono >> > più o meno facile ed intuitivo esprimere determinati concetti >> > piuttosto che altri. >> > >> > >> > Quando visiti un sito web che incorpora Google Fonts, i tuoi dati >> > personali vengono inviati istantaneamente a Google senza nemmeno >> > chiederti il permesso. >> > >> > Puoi NON visitare il sito web? >> > Sì (se sai che cosa comporta tale visita a priori), ma smetti di essere >> > "utente". >> > >> > >> > Per questo la riduzione della persona ad utente è così aberrante. >> > >> > E' il passo subito precedente a ridurla consapevolmente ad ingranaggio. >> > >> > >> > >> > > proprio perché è >> > > consapevole che in tal caso "può fare e pensare solo ciò che il >> > > creatore dell'artefatto stesso ha deciso". se la usa, con più >> > > consapevolezza o meno decide di obbedire al produttore dell'auto (è >> > > detto in termini un po' brevi e rozzi ma il senso è chiaro). >> > >> > sì ma questa decisione si pone PRIMA di essere utente. >> > >> > l'utente ormai è utente, e può essere eticamente irrilevante. >> > >> > L'editor che ti permette di estendere e modificare sé stesso, pretende >> > che tu mantenga la tua autonomia. L'editor che puoi solo usare, invece >> > ti rende eticamente irrilevante (rispetto alle conseguenze dell'utilizzo >> > dell'editor, non rispetto al testo che scrivi). >> > >> > Se Visual Studio Code ti suggerisce codice sotto GPL con una licenza >> > diversa e tu lo accetti all'interno della tua codebase, violando il >> > diritto d'autore di chi quel codice l'ha scritto, tu COME UTENTE non >> > hai modo di sapere che VSCode ti sta spingendo a violare i diritti di >> > terzi in quel caso specifico. >> > >> > >> > Dunque non puoi rispondere moralmente di tale violenza, perché non è >> > una tua scelta. Se venissi beccato, ne risponderesti legalmente. >> > Ma la responsabilità morale di quella violenza è tutta di Microsoft. >> > >> > >> > E' Microsoft che ha creato GitHub CopyALot per aprire un nuovo loophole >> > nel copyleft, permettendo di scaricare su una cosa irresponsabile la >> > responsabilità di qualunque violazione del copyright di autori del >> > software libero. >> > >> > >> > Tu puoi scegliere di NON usare Visual Studio Code (o disabilitare >> > qualsiasi interazione con CopyALot) ma nel momento in cui lo usi, >> > diventi eticamente irrilevante: violerai o non violerai i diritti di >> > terzi sulla base di volontà altrui. >> > >> > Sei in sostanza un ingranaggio tu stesso. >> > E se giri bene, ti senti pure produttivo! >> > >> > >> > > molto si gioca tra consapevolezza/inconsapevolezza e >> > > cautela/sprovvedutezza >> > >> > Questo è vero, ma parziale. >> > >> > Se dopo un incidente ti portano in ospedale e quell'ospedale usa il >> > cloud di Microsoft, non c'è consapevolezza che tenga. >> > >> > Sei un oggetto. >> > >> > >> > > se /so/ che i dispositivi a input vocale più >> > > spesso che no ascoltano ininterrottamente l'ambiente e quindi >> > > ascoltano ciò che dico anche quando non do comandi vocali, >> > > consapevolezza e cautela mi porteranno a non acquistare quel tipo di >> > > prodotti e ove disponibili preferirò le versioni dumb a quelle smart. >> > > non perché sono un troglodita rimasto al tempo delle caverne, ma >> > > proprio perché conosco il mondo digitale, la tecnologia, eccetera e >> > > scelgo quale tecnologia voglio usare. >> > >> > Infatti la riduzione della persona all'utente punta alla sua riduzione >> > ad ingranaggio ma nasce dalla sua riduzione a consumatore. >> > >> > L'idea che la libertà si riduca alla possibilità di scegliere un >> > prodotto fra N sullo scaffale del (super)mercato. >> > >> > >> > Come utente, non hai libertà (se non quella che io ti voglio concedere) >> > >> > Come consumatore, al limite, puoi scegliere di diventare utente di >> > qualcos'altro (che limiterà la tua libertà in altro modo). >> > >> > >> > E' questa la libertà per l'homo sapiens sapiens? >> > >> > NO! >> > >> > >> > Gli uomini sono capaci di creare! Di sperimentare! Di esplorare! >> > Di inventare alternative che non esistevano! >> > >> > (S)Fortunatamente possono essere convinti a ridursi a consumatori, a >> > utenti o a ingranaggi. E' un processo lento, ma evidentemente efficace. >> > >> > >> > > e quindi ad un successivo più alto livello tutto si gioca sul so/non >> > > so, dove il so/non so non riguarda necessariamente lo specifico >> > > prodotto, ma tipi di prodotti, tipi di questioni problematiche, >> > > eccetera. che è poi una questione di literacy, di information >> > > literacy: quanto ogni cittadino è attrezzato per vivere e operare in >> > > questa società dell'informazione, e dell'informazione digitale? >> > >> > Già solo parlando di "digitale" o di "società dell'informazione" si >> > allontana dalla consapevolezza di cui ha bisogno. >> > >> > La società in cui viviamo è cibernetica. >> > Integra strettamente ed inesorabilmente autonomie (umane) e automatismi. >> > >> > Ma le autonomie sono quasi sempre compresse dagli automatismi: gli >> > automatismi sono migliaia, ti invito a contare solo quelli sul tuo PC >> > tenendo in conto che ogni software è un automatismo a sé stante. >> > >> > Inoltre, poiché non comprende il funzionamento di tali automatismi, la >> > maggioranza delle persone le scambia per un fenomeno naturale. >> > >> > E' un bias evolutivo: ci siamo evoluti per milioni di anni in un sistema >> > in cui la quasi totalità di ciò che non potevamo controllare non era >> > controllato costantemente da altri esseri umani. >> > >> > Un eruzione vulcanica, una grandinata o un fulmine, non eseguivano la >> > volontà di un'altro essere umano. >> > >> > Così quando vediamo che Google ci invia un messaggio pubblicitario di >> > nostro interesse non stiamo a pensare alle implicazioni. >> > Ci appare come un fenomeno naturale, ancora prima che intervenga il >> > pensiero magico di cui parlava Daniela. >> > >> > >> > L'unico modo per superare questa tara evolutiva è comprendere come >> > funzionano gli automatismi che ci circondano, saperli creare e >> > modificare, in modo tale da acquisire piena consapevolezza della >> > loro natura. >> > >> > Ma non si tratta di "alfabetizzazione digitale", si tratta proprio di >> > imparare faticosamente a programmare e debuggare il software, a >> > leggerlo come leggiamo un thriller. >> > >> > >> > > molti sono come gli analfabeti che firmavano i contratti mettendo una >> > > croce e fidandosi di ciò che il proponente gli diceva. >> > >> > Letteralmente! >> > >> > >> > > c'è molto da fare in formazione >> > >> > Sono assolutamente d'accordo. >> > >> > Alla dirigenza della CGIL, mesi fa, proponevo proprio questo. [1] >> > >> > >> > > che è poi uscire dalla caverna e liberarsi dal dominio delle ombre. >> > >> > Non sono le ombre (il software) ad opprimervi, ma chi che le proietta. >> > Spesso direttamente nelle vostre teste. ;-) >> > >> > >> > ``` >> > Morpheus: The Matrix is everywhere, it is all around us, even now >> > in this very room. You can see it when you look out your window, or >> > you turn on your television. You can feel it when you go to work, >> > when you go to church, when you pay your taxes. It is the world that >> > has been pulled over your eyes to blind you from the truth. >> > >> > Neo: What truth? >> > >> > Morpheus: That you are a slave, Neo. >> > Like everyone else, you were born into bondage… born into a prison >> > that you cannot smell or taste or touch. >> > A prison for your mind. >> > ``` >> > >> > >> > Giacomo >> > >> > [1]: http://video.linuxtrent.it/w/3BBQ5rRqrzhoqiQDQ5is4e >> > >> > >> > > Maurizio >> > > >> > > Il 30/10/22 23:12, Giacomo Tesio ha scritto: >> > > > Salve Maurizio, >> > > > >> > > > On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote: >> > > > >> > > >> anche se ne hai poi parlato sotto, mi pare che è qui che per te si >> > > >> pone l'impossibilità di un'«etica delle AI» perché in senso stretto >> > > >> essa implicherebbe che l'AI sia un soggetto autonomo, capace di >> > > >> scelte autonome, di cui quindi si può valutare l'etica. ma questo >> > > >> implicherebbe che l'AI sia dotata di agency come un soggetto umano >> > > >> adulto senziente e ragionante, senza limitazioni. >> > > > Esatto. >> > > > >> > > > Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i >> > > > casi il software (e qualsiasi altra macchina) non ne ha. >> > > > >> > > > Parlare di "etica delle AI" è esattamente come parlare di "etica dei >> > > > sassi" o di "etica delle macchine". >> > > > >> > > > >> > > > L'etica, così come l'intelligenza o l'informazione, sono peculiarità >> > > > del homo sapiens sapiens. Letteralmente: parte della sua >> > > > definizione. >> > > > >> > > > >> > > > Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti >> > > > che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei >> > > > sassi a qualcuno verrebbe da ridere. >> > > > >> > > > Ma anche quando parliamo di macchine novecentesche parlare di >> > > > "etica" appare subito evidentemente strumentale. >> > > > >> > > > Immaginate l'industriale che, all'ennesimo morto sul lavoro >> > > > schiacciato da una pressa, proponesse come alternativa >> > > > all'introduzione di normative sulla sicurezza delle presse, >> > > > l'adozione di un'etica delle presse. >> > > > >> > > > >> > > > Con il software, a valle di un lungo lavoro di propaganda che >> > > > Daniela ha descritto benissimo nel suo saggio [1], invece la gente >> > > > può parlare di "etica delle AI" senza che tutti inizino a ridergli >> > > > in faccia. >> > > > >> > > > Vengono persino invitati a parlare a conferenze, pubblicati su >> > > > riviste di filosofia etc... >> > > > >> > > > Dal punto di vista oggettivo, i loro argomenti hanno la stessa >> > > > solidità delle teorie terrapiattiste. >> > > > >> > > > E un po' come avvenne in passato con il sistema tolemaico, queste >> > > > teorizzazioni servono gli interessi di chi comprende benissimo la >> > > > loro fallacia, ma trae vantaggio dalla loro diffusione. >> > > > >> > > > >> > > >> mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte >> > > >> come progettista sia a valle come utilizzatore e non >> > > >> nell'artefatto. >> > > > L'artefatto non ha etica. >> > > > Esprime l'etica di chi l'ha costruito, imprimendola al resto del >> > > > mondo. >> > > > >> > > > Ne riproduce la volontà. >> > > > Ne diffonde i valori. >> > > > >> > > > >> > > > L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente >> > > > irrilevante. Se non può alterare concretamente e consapevolmente il >> > > > funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può >> > > > fare e pensare solo ciò che il creatore dell'artefatto stesso ha >> > > > deciso. >> > > > >> > > > Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine >> > > > Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come >> > > > ingranaggio, come capro espiatorio. Non era la prima volta che si >> > > > "distraeva"... "alla guida". Tali "distrazioni" erano già state >> > > > registrate da Uber che misurava, per massimizzarlo, il grado di >> > > > confidenza dei passeggeri nella guida automatica (NON autonoma!). >> > > > >> > > > In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano >> > > > una feature, non un problema. >> > > > >> > > > Dunque Rafaela Vasquez era eticamente irrilevante. >> > > > Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, >> > > > ad un topo di laboratorio e ad un capro espiatorio alla bisogna. >> > > > >> > > > >> > > > Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza). >> > > > >> > > > Aveva percepito Elaine in tempo per evitarla, ma era stata >> > > > configurata per non effettuare frenate di emergenza durante la >> > > > guida "autonoma" in modo da "evitare un comportamento erratico del >> > > > mezzo" che avrebbe provocato il mal d'auto ai passeggeri. >> > > > >> > > > Insomma, quella Volvo stava letteralmente applicando al mondo i >> > > > valori di Uber, per cui la vita umana vale nettamente meno dei >> > > > propri profitti. >> > > > >> > > > Ma invece di arrestare tutto il consiglio di amministrazione di >> > > > Uber per omicidio, negli USA parlano di "Etica delle AI". >> > > > >> > > > >> > > > La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti. >> > > > Sono cose, insomma. Cose di scarso valore, peraltro. >> > > > >> > > > >> > > > E' questo l'etica delle AI: una narrazione alienante costruita su >> > > > un'altra narrazione alienante. >> > > > >> > > > >> > > >> a quel punto la valutazione di capacità etica riguarda i >> > > >> progettisti e gli utilizzatori e non è più questione di etica >> > > >> dell'AI in senso proprio, ma di come si fa una progettazione di >> > > >> prodotti che sia etica e un utilizzo di prodotti che sia etico. >> > > > No, non è una questione di etica, ma di cultura e politica. >> > > > >> > > > Anzitutto bisogna comprendere come funzionano questi software. >> > > > >> > > > Per arrivarci dobbiamo abolire al più presto questo linguaggio >> > > > antropomorfizzante (quando non religioso). Smettere di parlare >> > > > di "intelligenza" o "allenamento" o "apprendimento" o "etica". >> > > > >> > > > >> > > > Una volta compreso questo, si potrà smettere serenamente e >> > > > consapevolmente di applicarli a persone o a dati di origine umana. >> > > > >> > > > Con la clonazione l'abbiamo fatto, con il software programmato >> > > > statisticamente dobbiamo fare lo stesso. [2] >> > > > >> > > > >> > > > A valle di tale moratoria internazionale, potremo decidere una >> > > > normativa adeguata per le molte applicazioni che non riguardano >> > > > direttamente esseri umani. >> > > > >> > > > Ad esempio, il trasporto merci su strade dedicate (magari >> > > > sotterranee ed inaccessibili all'uomo). La massimizzazione della >> > > > produzione agricola e così via... >> > > > >> > > > >> > > > Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle >> > > > cose serve solo gli interessi di chi le controlla. >> > > > >> > > > >> > > > Dunque, non parliamo di etica delle AI. >> > > > Semplicemente perché già le AI stesse non esistono! ;-) >> > > > >> > > > >> > > > Parliamo piuttosto di etica delle aziende? >> > > > Ok! Allora limitiamo superiormente il loro profitto, così che una >> > > > volta raggiunto il tetto, la massimizzazione dei profitti smetta di >> > > > prevalere su qualsiasi altra considerazione. >> > > > >> > > > >> > > > Giacomo >> > > > >> > > > PS: non sono certo di aver risposto a ciò che chiedevi... scusa. >> > > > >> > > > >> > > > [1]: >> > > > >> > >> https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/ >> > > > >> > > > [2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli >> > > > sotto attenta e addestratissima supervisione di gruppi >> > > > multidisciplinari, che potremo elencare esplicitamente. >> > > > >> > > > Penso ad esempio all'uso medico: nessun medico, da solo, può >> > > > comprendere i pericoli dell'uso di un sistema programmato >> > > > statisticamente, ma un team di medici e informatici molto >> > > > preparati, insieme, potrebbe. >> > > > >> > > > Personalmente non riesco a pensare un'altro caso d'uso in cui >> > > > l'uso (sotto attenta e scrupolosa supervisione umana) di >> > > > questi strumenti possa giustificare i pericoli che comportano. >> > > > >> > > > Per assicurarci che nessuno ne abusi, potremmo però stabilire >> > > > che nessun profitto può essere ottenuto dall'uso di dati umani, >> > > > neanche in quei rarissimi casi in cui è autorizzato. >> > > >> > > >> > > >> ------------------------------------------------------------------------ >> > > >> > > many of us believe the EU remains >> > > the most extraordinary, ambitious, liberal >> > > political alliance in recorded history. >> > > where it needs reform, where it needs to evolve, >> > > we should be there to help turn that heavy wheel >> > > i. mcewan, the guardian, 2/6/2017 >> > > >> > > >> ------------------------------------------------------------------------ >> > > Maurizio Lana >> > > Università del Piemonte Orientale >> > > Dipartimento di Studi Umanistici >> > > Piazza Roma 36 - 13100 Vercelli >> > >> > _______________________________________________ >> > nexa mailing list >> > nexa@server-nexa.polito.it >> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> > >> -------------- next part -------------- >> An HTML attachment was scrubbed... >> URL: < >> http://server-nexa.polito.it/pipermail/nexa/attachments/20221102/61ea3ea0/attachment.htm >> > >> >> ------------------------------ >> >> Subject: Digest Footer >> >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> >> >> ------------------------------ >> >> End of nexa Digest, Vol 163, Issue 3 >> ************************************ >> > > > -- > > > > Marco Giraudo > > Università degli Studi di Torino > Dipartimento di Giurisprudenza - Collegio Carlo Alberto > <https://www.carloalberto.org/person/marco-giraudo/> > Ph.D in Institutions Economics and Law > > > > > >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa