credo che queste riflessioni di Giacomo sull'impossibilità di un'ethical AI abbiano una portata più ampia e specifica e per questo avvio un thread differente. voglio capire bene il filo del discorso, Giacomo, quindi estraggo e metto in fila quelli che a me appaiono gli snodi del pensiero

Il 30/10/22 13:50, Giacomo Tesio <giac...@tesio.it> ha scritto:
Chi costruisce un artefatto, esprime sé stesso, la proprie idee e i propri 
interessi di quel momento.

Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non 
secondo le regole impostegli da quella stessa volontà) e continua ad applicare 
quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di 
spegnerlo, romperlo o modificarlo).

L'artefice invece ha una libertà che l'artefatto non può avere e che non gli 
può essere attribuita (così come una responsabilità) senza prima aver 
dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di 
libero arbitrio.

L'artefice può cambiare idea.
L'artefatto non ha idee.
...
L'uomo è autonomo, l'artefatto no.

Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le 
regole di funzionamento del sistema cibernetico in cii opera, rendendolo 
imprevedibile.

Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è 
buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua 
ontologicamente ad essere autonomo.
anche se ne hai poi parlato sotto, mi pare che è qui che per te si pone l'impossibilità di un'«etica delle AI» perché in senso stretto essa implicherebbe che l'AI sia un soggetto autonomo, capace di scelte autonome, di cui quindi si può valutare l'etica. ma questo implicherebbe che l'AI sia dotata di agency come un soggetto umano adulto senziente e ragionante, senza limitazioni. mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte come progettista sia a valle come utilizzatore e non nell'artefatto. a quel punto la valutazione di capacità etica riguarda i progettisti e gli utilizzatori e non è più questione di etica dell'AI in senso proprio, ma di come si fa una progettazione di prodotti che sia etica e un utilizzo di prodotti che sia etico.
ho inteso bene?
l'uso di certe riduzioni ... alimenta l'alienazione cibernetica di molti. Alienazione che 
consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro 
automatizione (pensa al burocrate senza compassione) sia attraverso 
l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e 
antropomorfo.
l'antropomorfizzazione dell'automatismo, o forse direi addirittura la deificazione dell'automatismo: l'AI è un nuovo culto, con dei sommi sacerdoti che introducono i fedeli all'adorazione. siamo una società che si professa laica ma accettiamo delle nuove divinità. ritengo che occorra demitizzare, /laicizzare/, la presentazione pubblica che viene fatta dell'AI: un prodotto dell'attività umana che deve essere analizzato, commentato, valutato, giudicato, di cui si trovano i difetti strutturali o funzionali, ecc.
Maurizio

Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).

Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con
chi sarà affetto da tali conseguenze.

Quand'anche riuscissimo a superare i limiti computazionali che impediscono la 
previsione
potremmo ottenere un "senso comune" applicato meccanicamente.

Un "senso comune" indipendente dalla comunità.
Un "senso comune" immutabile, che non può evolvere se non nel solco del 
programma
(ovvero degli interessi di chi l'ha creato).

Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo 
la
mente umana può attribuire un significato.


Non è dunque un problema di quantità, di disponibilità di dati o di potenza di 
calcolo.


È una questione di essenza.
Gli automatismi trasformano meccanicamente dati, non informazioni.

Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire.
E non parlo solo dell'input o dell'output: il software stesso è privo di un 
significato
  intrinseco, tant'è che processori diversi reagiscono a segni diversi nello 
stesso
modo e a segni uguali in modo diverso.

E tant'è che possiamo persino progettare macchine per reagire in un determinato
modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.


Acquisire questa consapevolezza ha profonde implicazioni pratiche.

Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di 
"Explainable AI".

Il software è debuggabile.
Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha 
scritto.

E quando non è perfettamente debuggabile, allora è da buttare, perché troppo 
pericoloso:
la sua esecuzione è letteralmente "irresponsabile".


Giacomo



------------------------------------------------------------------------

perché l’uomo possa fare pubblico uso della propria ragione
è necessario che il potere agisca in pubblico
n. bobbio
le persone per scegliere devono sapere, devono conoscere
allora quello che un giornalista dovrebbe fare è informare
g. siani

------------------------------------------------------------------------
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to