Gentile Alessandro,

chiedo scusa se mi inserisco nella conversazione, ma volevo ricollegarmi a
quanto dite riguardo alla propensione ad innovare della società in contesti
di incertezza riguardo alle implicazioni delle nuove attività.

A tal proposito mi faceva piacere condivide con la lista queste riflessioni
generali sul tema dell'eccessivo tecnottimismo in campo giuseconomico.

https://www.cambridge.org/core/journals/journal-of-institutional-economics/article/on-legal-bubbles-some-thoughts-on-legal-shockwaves-at-the-core-of-the-digital-economy/62964F5EE993E8A7CC60EB4833FA71CA#article

Il campo dell'intelligenza artificiale è particolarmente esposto a tali
dinamiche di legal innovation hype e si intravedono bolle giuridiche
all'orizzonte.

I migliori auguri

Marco Giraudo


Le mer. 2 nov. 2022 à 13:41, <nexa-requ...@server-nexa.polito.it> a écrit :

> Send nexa mailing list submissions to
>         nexa@server-nexa.polito.it
>
> To subscribe or unsubscribe via the World Wide Web, visit
>         https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> or, via email, send a message with subject or body 'help' to
>         nexa-requ...@server-nexa.polito.it
>
> You can reach the person managing the list at
>         nexa-ow...@server-nexa.polito.it
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of nexa digest..."
>
>
> Today's Topics:
>
>    1. Re:  ethical AI (era "It’s time to admit, self-driving cars
>       aren’t going to happen") (Alessandro Brolpito)
>
>
> ----------------------------------------------------------------------
>
> Message: 1
> Date: Wed, 2 Nov 2022 13:40:41 +0100
> From: Alessandro Brolpito <abrolp...@gmail.com>
> To: Giacomo Tesio <giac...@tesio.it>
> Cc: nexa@server-nexa.polito.it
> Subject: Re: [nexa]  ethical AI (era "It’s time to admit,
>         self-driving cars aren’t going to happen")
> Message-ID:
>         <CABkhOK_jZjFunV_tfgrM4=
> 1nu8vxzdsbmuu-+qvhht3d34q...@mail.gmail.com>
> Content-Type: text/plain; charset="utf-8"
>
> Ciao Giacomo,
>
> Il fatto è che l'uomo ha sviluppato una capacità tecnologica che rende
> immensamente facile fare cose e servizi nuove/i, senza lasciare il tempo di
> analizzare e comprenderne il loro senso e soprattutto,i rischi e gli
> effetti collaterali.
>
> E mentre noi scriviamo migliaia/milioni di persone/automi nel mondo
> lavorano allo sviluppo sistemi basati sull'intelligenza artificiale, sempre
> più chiusi, che limitano la ns autonomia offrendo "splendenti" automazoni.
> Una spirale che andrebbe compresa meglio, basata su solidi principi
> internazionali che al momento latitano.
>
> Ma come preservare l'autonomia umana? Chiaramente non sono in grado di
> rispondere, ma penso che uno dei presupposti sia una consapevolezza e
> competenza digitale collettiva (e non di pochi), che crei una forza d'urto
> democratica, dal basso, attraverso una alfabetizzazione digitale di
> altissimo rango, di massa, che copra l'intero percorso educativo di ciascun
> individuo. E questo è già un problema enorme.
>
> Alessandro
>
>
> On Mon, 31 Oct 2022 at 19:59, Giacomo Tesio <giac...@tesio.it> wrote:
>
> > Ciao Maurizio,
> >
> > sorvolo temporaneamente sull'aspetto esotico (la "AI") per concentrarmi
> > sulla questione fondamentale, che si applica a qualsiasi software (e
> > qualsiasi agente cibernetico artificiale, aziende, PA e governi inclusi)
> >
> > On Mon, 31 Oct 2022 09:01:20 +0100 maurizio lana wrote:
> >
> > > mi fa capire che non mi sono espresso bene usando il termine
> > > "utilizzatore". [...]
> > > abbiamo i progettisti del software,
> > > e poi abbiamo l'agente di assicurazione che lo usa.
> > > a mio modo di vedere l'agente (che qui è l'utilizzatore) è
> > > responsabile per l'uso di quel software. [...]
> > > l'utilizzatore dell'auto a guida autonoma può
> > > decidere /non/ utilizzare un'auto a guida autonoma
> >
> > L'utente esiste solo mentre usa.
> >
> > La persona può scegliere di usare o meno il software, l'utente no.
> >
> > Come utente, è soggetto a regole più o meno stringenti a seconda dei
> > valori e degli obbiettivi di chi ha scritto il software.
> >
> > Editor di testo come Acme, Emacs, Geany, Vim etc, ti offrono
> > una libertà notevole, quasi illimitata, ci puoi programmare
> > o tenere la lista della spesa.
> > Letteralmente come un foglio bianco.
> >
> > Lo stesso si può dire di un linguaggio di programmazione general
> > purpose, come possono essere C, Python, Haskell, Lisp o Java (giusto per
> > fare qualche nome molto noto).
> >
> >
> > Un ambiente RAD (Rapid Application Development) ti offre una
> > libertà infinitamente inferiore, ti offre dei mattoncini
> > preconfezionati che tu puoi combinare e configurare con
> > una certa flessibilità, ma non puoi fare nulla che contrasti con gli
> > interessi di chi te lo ha fornito.
> >
> > Analogamente un domain specific language può limitare enormemente
> > la quantità di concetti che puoi esprimere.
> >
> > E naturalmente anche linguaggi general purpose diversi rendono
> > più o meno facile ed intuitivo esprimere determinati concetti
> > piuttosto che altri.
> >
> >
> > Quando visiti un sito web che incorpora Google Fonts, i tuoi dati
> > personali vengono inviati istantaneamente a Google senza nemmeno
> > chiederti il permesso.
> >
> > Puoi NON visitare il sito web?
> > Sì (se sai che cosa comporta tale visita a priori), ma smetti di essere
> > "utente".
> >
> >
> > Per questo la riduzione della persona ad utente è così aberrante.
> >
> > E' il passo subito precedente a ridurla consapevolmente ad ingranaggio.
> >
> >
> >
> > > proprio perché è
> > > consapevole che in tal caso "può fare e pensare solo ciò che il
> > > creatore dell'artefatto stesso ha deciso". se la usa, con più
> > > consapevolezza o meno decide di obbedire al produttore dell'auto (è
> > > detto in termini un po' brevi e rozzi ma il senso è chiaro).
> >
> > sì ma questa decisione si pone PRIMA di essere utente.
> >
> > l'utente ormai è utente, e può essere eticamente irrilevante.
> >
> > L'editor che ti permette di estendere e modificare sé stesso, pretende
> > che tu mantenga la tua autonomia. L'editor che puoi solo usare, invece
> > ti rende eticamente irrilevante (rispetto alle conseguenze dell'utilizzo
> > dell'editor, non rispetto al testo che scrivi).
> >
> > Se Visual Studio Code ti suggerisce codice sotto GPL con una licenza
> > diversa e tu lo accetti all'interno della tua codebase, violando il
> > diritto d'autore di chi quel codice l'ha scritto, tu COME UTENTE non
> > hai modo di sapere che VSCode ti sta spingendo a violare i diritti di
> > terzi in quel caso specifico.
> >
> >
> > Dunque non puoi rispondere moralmente di tale violenza, perché non è
> > una tua scelta. Se venissi beccato, ne risponderesti legalmente.
> > Ma la responsabilità morale di quella violenza è tutta di Microsoft.
> >
> >
> > E' Microsoft che ha creato GitHub CopyALot per aprire un nuovo loophole
> > nel copyleft, permettendo di scaricare su una cosa irresponsabile la
> > responsabilità di qualunque violazione del copyright di autori del
> > software libero.
> >
> >
> > Tu puoi scegliere di NON usare Visual Studio Code (o disabilitare
> > qualsiasi interazione con CopyALot) ma nel momento in cui lo usi,
> > diventi eticamente irrilevante: violerai o non violerai i diritti di
> > terzi sulla base di volontà altrui.
> >
> > Sei in sostanza un ingranaggio tu stesso.
> > E se giri bene, ti senti pure produttivo!
> >
> >
> > > molto si gioca tra consapevolezza/inconsapevolezza e
> > > cautela/sprovvedutezza
> >
> > Questo è vero, ma parziale.
> >
> > Se dopo un incidente ti portano in ospedale e quell'ospedale usa il
> > cloud di Microsoft, non c'è consapevolezza che tenga.
> >
> > Sei un oggetto.
> >
> >
> > > se /so/ che i dispositivi a input vocale più
> > > spesso che no ascoltano ininterrottamente l'ambiente e quindi
> > > ascoltano ciò che dico anche quando non do comandi vocali,
> > > consapevolezza e cautela mi porteranno a non acquistare quel tipo di
> > > prodotti e ove disponibili preferirò le versioni dumb a quelle smart.
> > > non perché sono un troglodita rimasto al tempo delle caverne, ma
> > > proprio perché conosco il mondo digitale, la tecnologia, eccetera e
> > > scelgo quale tecnologia voglio usare.
> >
> > Infatti la riduzione della persona all'utente punta alla sua riduzione
> > ad ingranaggio ma nasce dalla sua riduzione a consumatore.
> >
> > L'idea che la libertà si riduca alla possibilità di scegliere un
> > prodotto fra N sullo scaffale del (super)mercato.
> >
> >
> > Come utente, non hai libertà (se non quella che io ti voglio concedere)
> >
> > Come consumatore, al limite, puoi scegliere di diventare utente di
> > qualcos'altro (che limiterà la tua libertà in altro modo).
> >
> >
> > E' questa la libertà per l'homo sapiens sapiens?
> >
> > NO!
> >
> >
> > Gli uomini sono capaci di creare! Di sperimentare! Di esplorare!
> > Di inventare alternative che non esistevano!
> >
> > (S)Fortunatamente possono essere convinti a ridursi a consumatori, a
> > utenti o a ingranaggi. E' un processo lento, ma evidentemente efficace.
> >
> >
> > > e quindi ad un successivo più alto livello tutto si gioca sul so/non
> > > so, dove il so/non so non riguarda necessariamente lo specifico
> > > prodotto, ma tipi di prodotti, tipi di questioni problematiche,
> > > eccetera. che è poi una questione di literacy, di information
> > > literacy: quanto ogni cittadino è attrezzato per vivere e operare in
> > > questa società dell'informazione, e dell'informazione digitale?
> >
> > Già solo parlando di "digitale" o di "società dell'informazione" si
> > allontana dalla consapevolezza di cui ha bisogno.
> >
> > La società in cui viviamo è cibernetica.
> > Integra strettamente ed inesorabilmente autonomie (umane) e automatismi.
> >
> > Ma le autonomie sono quasi sempre compresse dagli automatismi: gli
> > automatismi sono migliaia, ti invito a contare solo quelli sul tuo PC
> > tenendo in conto che ogni software è un automatismo a sé stante.
> >
> > Inoltre, poiché non comprende il funzionamento di tali automatismi, la
> > maggioranza delle persone le scambia per un fenomeno naturale.
> >
> > E' un bias evolutivo: ci siamo evoluti per milioni di anni in un sistema
> > in cui la quasi totalità di ciò che non potevamo controllare non era
> > controllato costantemente da altri esseri umani.
> >
> > Un eruzione vulcanica, una grandinata o un fulmine, non eseguivano la
> > volontà di un'altro essere umano.
> >
> > Così quando vediamo che Google ci invia un messaggio pubblicitario di
> > nostro interesse non stiamo a pensare alle implicazioni.
> > Ci appare come un fenomeno naturale, ancora prima che intervenga il
> > pensiero magico di cui parlava Daniela.
> >
> >
> > L'unico modo per superare questa tara evolutiva è comprendere come
> > funzionano gli automatismi che ci circondano, saperli creare e
> > modificare, in modo tale da acquisire piena consapevolezza della
> > loro natura.
> >
> > Ma non si tratta di "alfabetizzazione digitale", si tratta proprio di
> > imparare faticosamente a programmare e debuggare il software, a
> > leggerlo come leggiamo un thriller.
> >
> >
> > > molti sono come gli analfabeti che firmavano i contratti mettendo una
> > > croce e fidandosi di ciò che il proponente gli diceva.
> >
> > Letteralmente!
> >
> >
> > > c'è molto da fare in formazione
> >
> > Sono assolutamente d'accordo.
> >
> > Alla dirigenza della CGIL, mesi fa, proponevo proprio questo. [1]
> >
> >
> > > che è poi uscire dalla caverna e liberarsi dal dominio delle ombre.
> >
> > Non sono le ombre (il software) ad opprimervi, ma chi che le proietta.
> > Spesso direttamente nelle vostre teste. ;-)
> >
> >
> > ```
> > Morpheus: The Matrix is everywhere, it is all around us, even now
> >     in this very room. You can see it when you look out your window, or
> >     you turn on your television. You can feel it when you go to work,
> >     when you go to church, when you pay your taxes. It is the world that
> >     has been pulled over your eyes to blind you from the truth.
> >
> > Neo: What truth?
> >
> > Morpheus: That you are a slave, Neo.
> >     Like everyone else, you were born into bondage… born into a prison
> >     that you cannot smell or taste or touch.
> >     A prison for your mind.
> > ```
> >
> >
> > Giacomo
> >
> > [1]: http://video.linuxtrent.it/w/3BBQ5rRqrzhoqiQDQ5is4e
> >
> >
> > > Maurizio
> > >
> > > Il 30/10/22 23:12, Giacomo Tesio ha scritto:
> > > > Salve Maurizio,
> > > >
> > > > On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
> > > >
> > > >> anche se ne hai poi parlato sotto, mi pare che è qui che per te si
> > > >> pone l'impossibilità di un'«etica delle AI» perché in senso stretto
> > > >> essa implicherebbe che l'AI sia un soggetto autonomo, capace di
> > > >> scelte autonome, di cui quindi si può valutare l'etica. ma questo
> > > >> implicherebbe che l'AI sia dotata di agency come un soggetto umano
> > > >> adulto senziente e ragionante, senza limitazioni.
> > > > Esatto.
> > > >
> > > > Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i
> > > > casi il software (e qualsiasi altra macchina) non ne ha.
> > > >
> > > > Parlare di "etica delle AI" è esattamente come parlare di "etica dei
> > > > sassi" o di "etica delle macchine".
> > > >
> > > >
> > > > L'etica, così come l'intelligenza o l'informazione, sono peculiarità
> > > > del homo sapiens sapiens. Letteralmente: parte della sua
> > > > definizione.
> > > >
> > > >
> > > > Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti
> > > > che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei
> > > > sassi a qualcuno verrebbe da ridere.
> > > >
> > > > Ma anche quando parliamo di macchine novecentesche parlare di
> > > > "etica" appare subito evidentemente strumentale.
> > > >
> > > > Immaginate l'industriale che, all'ennesimo morto sul lavoro
> > > > schiacciato da una pressa, proponesse come alternativa
> > > > all'introduzione di normative sulla sicurezza delle presse,
> > > > l'adozione di un'etica delle presse.
> > > >
> > > >
> > > > Con il software, a valle di un lungo lavoro di propaganda che
> > > > Daniela ha descritto benissimo nel suo saggio [1], invece la gente
> > > > può parlare di "etica delle AI" senza che tutti inizino a ridergli
> > > > in faccia.
> > > >
> > > > Vengono persino invitati a parlare a conferenze, pubblicati su
> > > > riviste di filosofia etc...
> > > >
> > > > Dal punto di vista oggettivo, i loro argomenti hanno la stessa
> > > > solidità delle teorie terrapiattiste.
> > > >
> > > > E un po' come avvenne in passato con il sistema tolemaico, queste
> > > > teorizzazioni servono gli interessi di chi comprende benissimo la
> > > > loro fallacia, ma trae vantaggio dalla loro diffusione.
> > > >
> > > >
> > > >> mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte
> > > >> come progettista sia a valle come utilizzatore e non
> > > >> nell'artefatto.
> > > > L'artefatto non ha etica.
> > > > Esprime l'etica di chi l'ha costruito, imprimendola al resto del
> > > > mondo.
> > > >
> > > > Ne riproduce la volontà.
> > > > Ne diffonde i valori.
> > > >
> > > >
> > > > L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
> > > > irrilevante. Se non può alterare concretamente e consapevolmente il
> > > > funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può
> > > > fare e pensare solo ciò che il creatore dell'artefatto stesso ha
> > > > deciso.
> > > >
> > > > Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine
> > > > Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come
> > > > ingranaggio, come capro espiatorio. Non era la prima volta che si
> > > > "distraeva"... "alla guida". Tali "distrazioni" erano già state
> > > > registrate da Uber che misurava, per massimizzarlo, il grado di
> > > > confidenza dei passeggeri nella guida automatica (NON autonoma!).
> > > >
> > > > In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano
> > > > una feature, non un problema.
> > > >
> > > > Dunque Rafaela Vasquez era eticamente irrilevante.
> > > > Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole,
> > > > ad un topo di laboratorio e ad un capro espiatorio alla bisogna.
> > > >
> > > >
> > > > Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).
> > > >
> > > > Aveva percepito Elaine in tempo per evitarla, ma era stata
> > > > configurata per non effettuare frenate di emergenza durante la
> > > > guida "autonoma" in modo da "evitare un comportamento erratico del
> > > > mezzo" che avrebbe provocato il mal d'auto ai passeggeri.
> > > >
> > > > Insomma, quella Volvo stava letteralmente applicando al mondo i
> > > > valori di Uber, per cui la vita umana vale nettamente meno dei
> > > > propri profitti.
> > > >
> > > > Ma invece di arrestare tutto il consiglio di amministrazione di
> > > > Uber per omicidio, negli USA parlano di "Etica delle AI".
> > > >
> > > >
> > > > La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti.
> > > > Sono cose, insomma. Cose di scarso valore, peraltro.
> > > >
> > > >
> > > > E' questo l'etica delle AI: una narrazione alienante costruita su
> > > > un'altra narrazione alienante.
> > > >
> > > >
> > > >> a quel punto la valutazione di capacità etica riguarda i
> > > >> progettisti e gli utilizzatori e non è più questione di etica
> > > >> dell'AI in senso proprio, ma di come si fa una progettazione di
> > > >> prodotti che sia etica e un utilizzo di prodotti che sia etico.
> > > > No, non è una questione di etica, ma di cultura e politica.
> > > >
> > > > Anzitutto bisogna comprendere come funzionano questi software.
> > > >
> > > > Per arrivarci dobbiamo abolire al più presto questo linguaggio
> > > > antropomorfizzante (quando non religioso). Smettere di parlare
> > > > di "intelligenza" o "allenamento" o "apprendimento" o "etica".
> > > >
> > > >
> > > > Una volta compreso questo, si potrà smettere serenamente e
> > > > consapevolmente di applicarli a persone o a dati di origine umana.
> > > >
> > > > Con la clonazione l'abbiamo fatto, con il software programmato
> > > > statisticamente dobbiamo fare lo stesso. [2]
> > > >
> > > >
> > > > A valle di tale moratoria internazionale, potremo decidere una
> > > > normativa adeguata per le molte applicazioni che non riguardano
> > > > direttamente esseri umani.
> > > >
> > > > Ad esempio, il trasporto merci su strade dedicate (magari
> > > > sotterranee ed inaccessibili all'uomo). La massimizzazione della
> > > > produzione agricola e così via...
> > > >
> > > >
> > > > Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle
> > > > cose serve solo gli interessi di chi le controlla.
> > > >
> > > >
> > > > Dunque, non parliamo di etica delle AI.
> > > > Semplicemente perché già le AI stesse non esistono! ;-)
> > > >
> > > >
> > > > Parliamo piuttosto di etica delle aziende?
> > > > Ok! Allora limitiamo superiormente il loro profitto, così che una
> > > > volta raggiunto il tetto, la massimizzazione dei profitti smetta di
> > > > prevalere su qualsiasi altra considerazione.
> > > >
> > > >
> > > > Giacomo
> > > >
> > > > PS: non sono certo di aver risposto a ciò che chiedevi... scusa.
> > > >
> > > >
> > > > [1]:
> > > >
> >
> https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
> > > >
> > > > [2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli
> > > > sotto attenta e addestratissima supervisione di gruppi
> > > > multidisciplinari, che potremo elencare esplicitamente.
> > > >
> > > >       Penso ad esempio all'uso medico: nessun medico, da solo, può
> > > >       comprendere i pericoli dell'uso di un sistema programmato
> > > >       statisticamente, ma un team di medici e informatici molto
> > > >       preparati, insieme, potrebbe.
> > > >
> > > >       Personalmente non riesco a pensare un'altro caso d'uso in cui
> > > >       l'uso (sotto attenta e scrupolosa supervisione umana) di
> > > > questi strumenti possa giustificare i pericoli che comportano.
> > > >
> > > >       Per assicurarci che nessuno ne abusi, potremmo però stabilire
> > > > che nessun profitto può essere ottenuto dall'uso di dati umani,
> > > > neanche in quei rarissimi casi in cui è autorizzato.
> > >
> > >
> > >
> ------------------------------------------------------------------------
> > >
> > > many of us believe the EU remains
> > > the most extraordinary, ambitious, liberal
> > > political alliance in recorded history.
> > > where it needs reform, where it needs to evolve,
> > > we should be there to help turn that heavy wheel
> > > i. mcewan, the guardian, 2/6/2017
> > >
> > >
> ------------------------------------------------------------------------
> > > Maurizio Lana
> > > Università del Piemonte Orientale
> > > Dipartimento di Studi Umanistici
> > > Piazza Roma 36 - 13100 Vercelli
> >
> > _______________________________________________
> > nexa mailing list
> > nexa@server-nexa.polito.it
> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> >
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20221102/61ea3ea0/attachment.htm
> >
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> End of nexa Digest, Vol 163, Issue 3
> ************************************
>


-- 



Marco Giraudo

Università degli Studi di Torino
Dipartimento di Giurisprudenza - Collegio Carlo Alberto
<https://www.carloalberto.org/person/marco-giraudo/>
Ph.D in Institutions Economics and Law
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to