credo che queste riflessioni di Giacomo sull'impossibilità di un'ethical
AI abbiano una portata più ampia e specifica e per questo avvio un
thread differente.
voglio capire bene il filo del discorso, Giacomo, quindi estraggo e
metto in fila quelli che a me appaiono gli snodi del pensiero
Il 30/10/22 13:50, Giacomo Tesio <giac...@tesio.it> ha scritto:
Chi costruisce un artefatto, esprime sé stesso, la proprie idee e i propri
interessi di quel momento.
Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non
secondo le regole impostegli da quella stessa volontà) e continua ad applicare
quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di
spegnerlo, romperlo o modificarlo).
L'artefice invece ha una libertà che l'artefatto non può avere e che non gli
può essere attribuita (così come una responsabilità) senza prima aver
dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di
libero arbitrio.
L'artefice può cambiare idea.
L'artefatto non ha idee.
...
L'uomo è autonomo, l'artefatto no.
Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le
regole di funzionamento del sistema cibernetico in cii opera, rendendolo
imprevedibile.
Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è
buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua
ontologicamente ad essere autonomo.
anche se ne hai poi parlato sotto, mi pare che è qui che per te si pone
l'impossibilità di un'«etica delle AI» perché in senso stretto essa
implicherebbe che l'AI sia un soggetto autonomo, capace di scelte
autonome, di cui quindi si può valutare l'etica. ma questo implicherebbe
che l'AI sia dotata di agency come un soggetto umano adulto senziente e
ragionante, senza limitazioni.
mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte come
progettista sia a valle come utilizzatore e non nell'artefatto. a quel
punto la valutazione di capacità etica riguarda i progettisti e gli
utilizzatori e non è più questione di etica dell'AI in senso proprio, ma
di come si fa una progettazione di prodotti che sia etica e un utilizzo
di prodotti che sia etico.
ho inteso bene?
l'uso di certe riduzioni ... alimenta l'alienazione cibernetica di molti. Alienazione che
consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro
automatizione (pensa al burocrate senza compassione) sia attraverso
l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e
antropomorfo.
l'antropomorfizzazione dell'automatismo, o forse direi addirittura la
deificazione dell'automatismo: l'AI è un nuovo culto, con dei sommi
sacerdoti che introducono i fedeli all'adorazione. siamo una società che
si professa laica ma accettiamo delle nuove divinità.
ritengo che occorra demitizzare, /laicizzare/, la presentazione pubblica
che viene fatta dell'AI: un prodotto dell'attività umana che deve essere
analizzato, commentato, valutato, giudicato, di cui si trovano i difetti
strutturali o funzionali, ecc.
Maurizio
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).
Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con
chi sarà affetto da tali conseguenze.
Quand'anche riuscissimo a superare i limiti computazionali che impediscono la
previsione
potremmo ottenere un "senso comune" applicato meccanicamente.
Un "senso comune" indipendente dalla comunità.
Un "senso comune" immutabile, che non può evolvere se non nel solco del
programma
(ovvero degli interessi di chi l'ha creato).
Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo
la
mente umana può attribuire un significato.
Non è dunque un problema di quantità, di disponibilità di dati o di potenza di
calcolo.
È una questione di essenza.
Gli automatismi trasformano meccanicamente dati, non informazioni.
Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire.
E non parlo solo dell'input o dell'output: il software stesso è privo di un
significato
intrinseco, tant'è che processori diversi reagiscono a segni diversi nello
stesso
modo e a segni uguali in modo diverso.
E tant'è che possiamo persino progettare macchine per reagire in un determinato
modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.
Acquisire questa consapevolezza ha profonde implicazioni pratiche.
Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di
"Explainable AI".
Il software è debuggabile.
Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha
scritto.
E quando non è perfettamente debuggabile, allora è da buttare, perché troppo
pericoloso:
la sua esecuzione è letteralmente "irresponsabile".
Giacomo
------------------------------------------------------------------------
perché l’uomo possa fare pubblico uso della propria ragione
è necessario che il potere agisca in pubblico
n. bobbio
le persone per scegliere devono sapere, devono conoscere
allora quello che un giornalista dovrebbe fare è informare
g. siani
------------------------------------------------------------------------
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa