Buonasera,

grazie per il confronto!

Daniela Tafani <daniela.taf...@unipi.it> writes:

[...]

>   1.  Ci sono tantissimi software non-AI che sono utilizzati per
> classificare e produrre decisioni, non è una caratteristica
> "discriminante" dei software AI: sbaglio?  Nel caso del software AI
> cosa c'è di differente sotto questo aspetto?  Non ho il diritto di
> conoscere i meccanismi di funzionamento del software che /decide/ che
> un tale fenomeno è così invece che "cosà"?
>
> Una differenza rilevante dal punto di vista giuridico e politico è
> interna alla cosidetta AI ed è quella che caratterizza i sistemi di
> machine learning (ML) rispetto all'IA simbolica.

Prometto che andrò a studiare, ma pur comprendendo benissimo la
differenza informatica tra modelli AI ricavati via ML (codice binario
non human-readeable) e AI simbolica (rappresentazioni simboliche
human-readeable), non capisco che differenza dal punto di vista
giuridico ci sia.

[...]

> ma ho specificato fin dalla prima riga che la questione riguarda i
> sistemi di apprendimento automatico.

Sì mi è stato chiaro fin dalla prima riga della mia risposta :-)

[...]

> grazie a sistemi sostanzialmente statistici

[...]

> L'opacità è una differenza cruciale, giuridicamente, perché se adopero
> un sistema fondato sul calcolo simbolico per decidere, ad esempio, a
> quali sedi assegnare i docenti delle scuole superiori, posso farlo
> scegliendo quali variabili pesare, e quanto.

giusto, purché non dimentichiamo di considerare il fatto che la scelta
delle variabili e quanto pesarle è effettuata da chi scrive il codice e
per capire quali scelte sono state fatte occorre poter leggere il codice
sorgente (o fare reverse engineeting del binario ma è praticamente
impossibile)

> Se utilizzo un sistema ML non sarò in grado di spiegare perché mai un
> dato docente sia stato assegnato "dall'algoritmo" a una data scuola.

sì, i risultati dei sistemi ML sono /inspiegabili/

...ma in molte (alcune) situazioni funzionano benissimo (ad es, i
sistemi OCR)

> Di qui la sentenza del TAR del Lazio che ha dato ragione ai docenti
> ricorrenti, ribadendo che il ricorso a una procedura informatica non
> può essere una ragione per eludere i principi del nostro ordinamento,
> evitando, nel caso in oggetto, di motivare l'assegnazione a una certa
> sede:
> https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=tar_rm&nrg=201610277&nomeFile=202107589_20.html&subDir=Provvedimenti

Giusto, dimenticavo quella sentenza.  Non l'ho (ancora?) studiata ma a
mio modestissimo avviso la consecutio logica di simili posizioni
giuridiche è che quando viene utilizzato software (binario) in un
processo di valutazione deve essere messo a disposizione di tutti gli
interessati anche il codice sorgente, perché anche il binario è opaco
(opacissimo) e solo le dichiarazioni del fornitore del software
(attraverso schede tecniche, manuale, dichiarazioni...) motivano come il
software valuta i dati forniti.

> Questa opacità è oggetto di due narrazioni:
>
> a. quella finanziata e diffusa dai GAFAM, che antropomorfizza l'IA:
> - assimilando l'opacità dei sistemi sub-simbolici
> all'imperscrutabilità delle intenzioni umane  (non posso aprire la
> black box del sistema ML così come non posso leggere nel cuore - o nel
> cervello - umano)

questa narrazione mi era sfuggita: no comment

> - confondendo la traduzione in termini computazionali con una garanzia
> di salomonica imparzialità, oggettività e giustizia (l'incredibile
> abbaglio, o imbroglio, che vige ormai pressoché incontrastato)

chiedo scusa se insisto ma la stessa insopportabile narrazione vale
anche per il software "tradizionale", fin dall'uso dei primi sistemi
computerizzati [1]

> - presentando le discriminazioni, sensate e insensate [...] come un
> problema tecnico, risolvibile sulla base dell'"etica dell'IA", anziché
> come una caratteristica costitutiva e al momento ineliminabile dei
> sistemi ML, a causa dei molti "debiti etici" contratti nel corso della
> loro costruzione, in virtù delle "scorciatoie" adottate (le due
> espressioni, azzeccatissime, sono di Nello Cristianini).

idem come sopra [1]

[...]

>   2.  Analisi di /quali/ rischi, per un software?!?  Rischio di
> "bias", "falsi positivi", "attacchi alla supply-chain", "violazione
> del GDPR"?  I servizi di Facebook o Google violano il GDPR ma non la
> normativa USA, sono (potenzialmente?) illegali in EU: c'è bisogno di
> una analisi dei rischi per stabilirlo?  Considerati i problemi del
> software analizzati prima (correlazione e attacchi) la valutazione dei
> rischi fino dove si dovrebbe spingere? Analizzo il mio software o devo
> analizzare anche i componenti terzi? Se si, fino a che livello devo
> spingermi, fino alla radice dell'intera catena di build?
>
> La parte sulle licenze e le certificazioni è quella che lascia
> perplessa anche me, soprattutto perché intravedo un ennesimo ethics
> washing, con la soluzione dell'etica come requisito tecnico

Se per licenze intende "licenze ad operare" (tipo un'abilitazione
professionale o una autorizzazione ministeriale) e non "licenze
software" allora direi che la cosa non può lasciare solo perplessi ma
come minimo sconcertare: con che faccia tosta qualcuno potrebbe
seriamente proporre quella come soluzione?

Sulla certificazione ho già detto tutto il (male) possibile, posso solo
dire che la certificazione e i relativi standard tecnici sono
/ampiamente/ sopravvalutati... anzi sono "standards washing" :-D

> (o addirittura, come già è stato proposto, dell'etica come servizio).

Quanto costa la fornitura di una settimana d'etica?!? B-)

> Quello che trovo apprezzabile, nella proposta di Pasquale e Malgieri,
> è il coraggio di chiedere che la legge vieti che che un sistema di un
> certo tipo, con certi limiti intrinseci, sia spacciato per il re
> taumaturgo.

Io invece no, ritengo che sia /estremamente/ pericoloso farlo in questo
modo, ovvero sistemi ML illegali per default (traviso?).

Forse (forse?) i giudici hanno già in mano tutti gli strumenti adeguati
per poter giudicare /nel merito/ quando un atto debba essere invalidato
nel caso i sistemi informatici utilizzati - determinanti per l'esito
dell'atto - non forniscano adeguate garanzie di trasparenza, come nel
caso del TAR del Lazio citato sopra.

A mio modesto avviso non c'è bisogno di "incasinare" (mi si conceda) il
quadro giuridico o legislativo per sanare le innumerevoli storture
causate dal cattivo (ab)uso del software (tutto), sostenute attraverso
narrative ciarlatane sebbene riscuotano un qual certo successo.

[...]

> E invece sono già in commercio applicazioni, o promesse, per ciascuna
> di queste magie.

Sì ma il problema non è che siano in commercio (e quindi vanno vietate o
certificate o o la commercializzazione essere affidata solo a chi ha la
licenza per farlo) ma che ci siano persone e istituzoni che ne /abusano/
per farne utilizzi impropri (o nascondere la propria inedeguatezza).

Per fare un esempio, il software usato per l'assegnazione a una certa
sede scolastina di cui sopra (TAR del Lazio...) potrebbe essere
benissmo (ri)utilizzato per stabilire come immagazzinare i prodotti
dentro un magazzino, che problema ci sarebbe?

Qual'è quindi il problema: il software (AI) o l'uso improprio che se ne
fa?

Per fare un altro esempio, a me pare ovvio che un software AI non /deve/
essere utilizzato per generare un modello che poi viene preso come prova
scientifica sulla base della quale poi vengono prese decisioni politiche
che hanno impatto su moltissime persone... sono io che non capisco
niente di scienza?  Da quando la correlazione è diventato "metodo
scientifico"?  Scienza o /numerologia/?!?

> E tutta questa snake oil AI si basa sulla cattura, estorsione,
> espropriazione, a volte semplice furto, di dati personali (donde il
> nesso strettissimo con la bolla giuridica).

Non tutta l'AI si basa sull'analisi dei dati personali.

L'estorsione dei dati personali non dovrebbe esistere e /tecnicamente/
si può fare... ma a mio modesto avviso separerei l'argomento da
AI/non-AI

> Proprio per questo mi pare sensato proporre l'illegalità tout court di
> questi sistemi

Anche dei sistemi OCR?

> e attribuire a chi voglia invece utilizzarli l'onere di dimostrare che
> non lo sono e di giustificare, tra le altre, la pertinenza dei dati
> utilizzati, rispetto al fine, nonché la proporzionalità.

Io credo invece che sia /pericoloso/, non foss'altro per il fatto che
/mai/ un qualsiasi utilizzatore di un sistema cibernetico, ancorché AI
"certificata", dovrebbe nascondersi dietro la pretesa oggettività
(certificata?) di tale sistema per negare le proprie responsabilità di
(ab)uso.

> Anche per i sistemi seri e utili, come quelli in ambito medico, ci
> sono infatti rischi:

Therac-25 docet https://en.wikipedia.org/wiki/Therac-25
(questo per ribadire che, quando si utilizzano sistemi cibernetici, i
richi c'erano e ci sono anche senza AI)

Tutte le persone "informate sui fatti" lo sanno benissimo, poi ci sono
alcuni (molti) che fanno finta di non sapere, altri di non
capire... altri proprio non capiscono.

[...]

> Se qualcosa di analogo avviene nell'automatizzazione della diagnostica
> per immagini,

La diagnostica non deve essere automatizzata, il medico non si può
nascondere dietro la /presunta/ oggettività di una diagnosi fatta da una
macchina;  tuttavia, se la macchina è in grado di fornire indicazioni
che il medico ritiene utili e non contraddittorie, che senso avrebbe
vietare la macchina, che senso avrebbe certificarla e con questo creare
nel medico delle false aspettative?

O forse l'automazione della diagnistica è una soluzione a un problema
/mascherato/, quello della carenza di medici?

> le conseguenze sono più pesanti e può darsi che ce ne
> accorgiamo, per qualcuno, troppo tardi.  Il riferimento all'articolo
> di Doctorow non era tanto sulla questione della fiducia, su cui ci
> sono lavori più pertinenti, quanto per una spiegazione incisiva e
> accessibile di cosa siano gli attacchi avversari ai sistemi ML.

Va bene, ma su questo aspetto è importante considerare che gli attacchi
ai sistemi ML (di cui ho letto, anche su lavori più pertinenti) sono del
tutto /analoghi/ a quelli al software "tradizionale"

Saluti, 380°

[...]

[1] se n'è parlato recentemente anche qui nel thread «The 1960s
Experiment Created Today’s Biased Police Surveillance»
https://server-nexa.polito.it/pipermail/nexa/2022-November/024395.html

-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to