Buongiorno 380°,
grazie di aver condiviso le sue osservazioni e riflessioni. Provo ad aggiungere solo qualche considerazione sommaria, su alcuni punti, raggruppando le domande: 1. Ci sono tantissimi software non-AI che sono utilizzati per classificare e produrre decisioni, non è una caratteristica "discriminante" dei software AI: sbaglio? Nel caso del software AI cosa c'è di differente sotto questo aspetto? Non ho il diritto di conoscere i meccanismi di funzionamento del software che /decide/ che un tale fenomeno è così invece che "cosà"? Una differenza rilevante dal punto di vista giuridico e politico è interna alla cosidetta AI ed è quella che caratterizza i sistemi di machine learning (ML) rispetto all'IA simbolica. Frank Pasquale e Gianclaudio Malgieri parlano di IA e l'ho fatto perciò anch'io (malgrado trovi molto più appropriato, come ha proposto Stefano Quintarelli, parlare di SALAMI), ma ho specificato fin dalla prima riga che la questione riguarda i sistemi di apprendimento automatico. Ciò che distingue tali sistemi è la potenza in alcune specifiche prestazioni e al tempo stesso l'opacità: grazie a sistemi sostanzialmente statistici (concordo, purché teniamo presente che parlare di "statistiche" induce a pensare a quelle elaborate da esseri umani, che distinguono le correlazioni pertinenti da quelle assurde e distinguono, tra le correlazioni, i nessi causali), otteniamo oggi, almeno apparentemente, la possibilità di automatizzare ciò che ritenevamo si potesse replicare solo dopo averlo compreso, concettualizzato e tradotto in termini computazionali (ad esempio, la predizione di stringhe di testo o la classificazione di immagini). L'opacità è una differenza cruciale, giuridicamente, perché se adopero un sistema fondato sul calcolo simbolico per decidere, ad esempio, a quali sedi assegnare i docenti delle scuole superiori, posso farlo scegliendo quali variabili pesare, e quanto. Se utilizzo un sistema ML non sarò in grado di spiegare perché mai un dato docente sia stato assegnato "dall'algoritmo" a una data scuola. Di qui la sentenza del TAR del Lazio che ha dato ragione ai docenti ricorrenti, ribadendo che il ricorso a una procedura informatica non può essere una ragione per eludere i principi del nostro ordinamento, evitando, nel caso in oggetto, di motivare l'assegnazione a una certa sede: https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=tar_rm&nrg=201610277&nomeFile=202107589_20.html&subDir=Provvedimenti Questa opacità è oggetto di due narrazioni: a. quella finanziata e diffusa dai GAFAM, che antropomorfizza l'IA: - assimilando l'opacità dei sistemi sub-simbolici all'imperscrutabilità delle intenzioni umane (non posso aprire la black box del sistema ML così come non posso leggere nel cuore - o nel cervello - umano) - confondendo la traduzione in termini computazionali con una garanzia di salomonica imparzialità, oggettività e giustizia (l'incredibile abbaglio, o imbroglio, che vige ormai pressoché incontrastato) - presentando le discriminazioni, sensate e insensate (generate cioè dall'appartenenza a un gruppo giuridicamente tutelato oppure da un pixel in una foto) come un problema tecnico, risolvibile sulla base dell'"etica dell'IA", anziché come una caratteristica costitutiva e al momento ineliminabile dei sistemi ML, a causa dei molti "debiti etici" contratti nel corso della loro costruzione, in virtù delle "scorciatoie" adottate (le due espressioni, azzeccatissime, sono di Nello Cristianini). b. quella dei critici delle decisioni algoritmiche, che documentano i danni, le ingiustizie, le insensatezze, le discriminazioni a carico di tutti i soggetti ai margini e chiedono che tali soggetti siano coinvolti nella costruzione dei sistemi informatici che saranno poi utilizzati per prendere decisioni giudiziarie, mediche, finanziarie, occupazionali o educative che li riguardano. 2. Analisi di /quali/ rischi, per un software?!? Rischio di "bias", "falsi positivi", "attacchi alla supply-chain", "violazione del GDPR"? I servizi di Facebook o Google violano il GDPR ma non la normativa USA, sono (potenzialmente?) illegali in EU: c'è bisogno di una analisi dei rischi per stabilirlo? Considerati i problemi del software analizzati prima (correlazione e attacchi) la valutazione dei rischi fino dove si dovrebbe spingere? Analizzo il mio software o devo analizzare anche i componenti terzi? Se si, fino a che livello devo spingermi, fino alla radice dell'intera catena di build? La parte sulle licenze e le certificazioni è quella che lascia perplessa anche me, soprattutto perché intravedo un ennesimo ethics washing, con la soluzione dell'etica come requisito tecnico (o addirittura, come già è stato proposto, dell'etica come servizio). Quello che trovo apprezzabile, nella proposta di Pasquale e Malgieri, è il coraggio di chiedere che la legge vieti che che un sistema di un certo tipo, con certi limiti intrinseci, sia spacciato per il re taumaturgo. Non può farmi parlare con i morti, guidare da solo un'auto in città, vaticinare l'abbandono scolastico, fornire assistenza mentale, predire le prestazioni lavorative a partire dal video di un colloquio, emettere sentenze e sostituire i medici. E invece sono già in commercio applicazioni, o promesse, per ciascuna di queste magie. E tutta questa snake oil AI si basa sulla cattura, estorsione, espropriazione, a volte semplice furto, di dati personali (donde il nesso strettissimo con la bolla giuridica). Proprio per questo mi pare sensato proporre l'illegalità tout court di questi sistemi e attribuire a chi voglia invece utilizzarli l'onere di dimostrare che non lo sono e di giustificare, tra le altre, la pertinenza dei dati utilizzati, rispetto al fine, nonché la proporzionalità. Anche per i sistemi seri e utili, come quelli in ambito medico, ci sono infatti rischi: se l'erogatore di sapone in albergo non funziona quando la mano è nera, ci accorgiamo del mal funzionamento (generato, in fase di progettazione, dal consueto assunto che il genere o il colore dominanti siano neutri e universali). Se qualcosa di analogo avviene nell'automatizzazione della diagnostica per immagini, le conseguenze sono più pesanti e può darsi che ce ne accorgiamo, per qualcuno, troppo tardi. Il riferimento all'articolo di Doctorow non era tanto sulla questione della fiducia, su cui ci sono lavori più pertinenti, quanto per una spiegazione incisiva e accessibile di cosa siano gli attacchi avversari ai sistemi ML. Mi scuso di non aver avuto il tempo di scrivere una risposta più breve. Grazie ancora. Buona domenica, Daniela ________________________________ Da: 380° <g...@biscuolo.net> Inviato: sabato 12 novembre 2022 17:29 A: Daniela Tafani; nexa@server-nexa.polito.it Oggetto: Re: [nexa] “Automaticamente illegali”. Una proposta per i sistemi di intelligenza artificiale Buongiorno Daniela grazie mille per la segnalazione! Mi permetto di sottoporre i miei commenti, mi perdoni Daniela se dico cose che lei probabilmente già sa ma... mi serve per capirci Chiedo scusa per l'estrema lunghezza del messaggio, tuttavia non c'è alcuna fretta di leggere e tantomeno di rispondere se del caso :-) Daniela Tafani <daniela.taf...@unipi.it> writes: [...] > e ho utilizzato questa tua espressione in un mio post di oggi, > > nel quale segnalo una proposta che può forse interessare a questa lista: Io lo spererei proprio :-) > "Automaticamente illegali". Una proposta per i sistemi di intelligenza > artificiale > Bollettino telematico di filosofia politica > <https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/> [https://btfp.sp.unipi.it/wp-content/uploads/2022/11/facedetection.jpg]<https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/> "Automaticamente illegali". Una proposta per i sistemi di intelligenza artificiale > Bollettino telematico di filosofia politica<https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/> btfp.sp.unipi.it Overlay journal of political philosophy Parliamone... :-) Quelli che commento sono estratti del suo articolo, inclusi nei "cut here start/end" --8<---------------cut here---------------start------------->8--- I sistemi di intelligenza artificiale basati sull’apprendimento automatico (machine learning) sono utilizzati per ottenere classificazioni o produrre decisioni --8<---------------cut here---------------end--------------->8--- Ci sono tantissimi software non-AI che sonon utilizzati per classificare e produrre decisioni, non è una caratteristica "discriminante" dei software AI: sbaglio? --8<---------------cut here---------------start------------->8--- che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo. --8<---------------cut here---------------end--------------->8--- Idem come sopra, è dagli anni '50 del secono scorso che negli USA (e poi progressivamente altrove) il software è usato per calcolare il credit score [1] Sistemi analoghi di "decision-making" e "advertising" sono stati sviluppati a ruota: «per determinare prezzi personalizzati delle assicurazioni auto e per quelle sulla salute, per calcolare i tassi ipotecari, gli affitti o le assunzioni lavorative; liste di potenziali “clienti” venivano cedute per proporre nuovi prodotti o nuove campagne pubblicitarie.» [1] Nel caso del software AI cosa c'è di differente sotto questo aspetto? --8<---------------cut here---------------start------------->8--- la quantità dei dati di partenza e la potenza di calcolo richiesta per la loro elaborazione fanno sì che la presenza di un essere umano nel processo (human in the loop) non sia in grado di fornire alcun controllo rilevante. --8<---------------cut here---------------end--------------->8--- Sul software di cui sopra /nessuno/ degli utilizzatori - intendo gli impiegati delle agenzie di valutazione del rischio e dei loro clienti - o delle persone oggetto di indagine finanziaria poteva esercitare un controllo, non perché la velocità e la scala con la quale un computer calcola non lo consente, ma perché il software binario è sempre una black box [1] e non solo quando è software AI. Una volta che la black box viene mandata in esecuzione, cioè il software binario diventa un processo, non ci può essere nessun "human in the loop" nei cicli di clock di una CPU :-): al massimo agli umani è dato (dai programmatori) un /minimo/ grado di libertà di influire sul processo attraverso una interfaccia [2], ma /mai/ di "esercitare controllo" sulla black box. --8<---------------cut here---------------start------------->8--- questi sistemi sono infatti sono costitutivamente opachi (black box), soggetti a errori madornali – in quanto fondati su correlazioni statistiche di ogni genere, senza accesso al significato o al contesto – e ad attacchi avversari non rilevabili. --8<---------------cut here---------------end--------------->8--- Queste, rispetto al software non-AI, sono le caratteristiche probabilmente preponderanti, però non sono esclusive del software AI, se analizziamo la AI nei suoi elementi costitutivi [3] É vero che il software AI (modello ricavato attraverso ML) è sostanzialmente "correlazione statistica" (semplifico eccessivamente?) ma il "vizietto" di ABUSARE della statistica [4] non è per nulla figlio della AI [5] [6], anzi a mio avviso è /esattamente/ l'opposto. Qui però non approfindiamo nel merito la questione del ruolo della statistica nella science crisis, perché andremmo OT: era solo per dire che esiste ed essendo il "discorso tecnico" strettamente legata al "discorso scientifico" occorre tenerne conto: «It's science's dirtiest secret: The ‘scientific method’ of testing hypotheses by statistical analysis stands on a flimsy foundation.» [7] (semmai ne parliamo in lista AISA :-) ) É vero che il software AI è (forse) più soggetto ad attacchi non rilevabili alla **supply chain** rispetto al software non-AI [8], compiler inclusi, ma anche il software non-AI binario è il risultato di una supply (build) chain complessa e alla cui base ci sono /sempre/ "binary blobs" (black boxes). In altre parole: "Reflections on Trusting Trust" [9] vale /anche/ per il software-AI: chi ha dei dubbi in merito? Questo sì che, se serve, potremmo approfondire qui, perché /volendo/ ci sono soluzioni. «So how can we know anything about computers?» [8]: parliamone! Per ora voglio solo sottolineare che "Reflections on Trusting Trust" è del 1984 (1984!) e nel frattempo il software (proprietario) è stato usato senza farsi troppi problemi /anche/ a livello accademico... è solo da poco tempo che si stanno studiando e applicando soluzioni. --8<---------------cut here---------------start------------->8--- Come osserva Andrea Bertolini, la dicotomia tra soggetti giuridici e oggetti non è superabile, tertium non datur, e l’unica classificazione ammissibile di tutte le tecnologie avanzate esistenti e ragionevolmente prevedibili – senza indulgere in tentazioni fantascientifiche – è quella di cose, oggetti e artefatti, prodotti dell’intelletto umano. Così concepite, esse rientrano chiaramente nella nozione di prodotto --8<---------------cut here---------------end--------------->8--- Il fatto è che /giuridicamente/ i prodotti /fisici/, ovviamente anche quelli dotati di automatismi come i software-AI, devono essere trattati come tali /quindi/ sottoposti a "direttiva macchine" o "marcatura CE"... ma non il software in quanto tale, per favore! Giuridicamente il software è incluso nelle opere d'ingegno, ed è cosa buona e giusta. Non sono i programmatori che decidono di incorporare il software in una macchina o un prodotto senza effettuare l'analisi dei rischi e eventualmente implementare adeguate misure di protezione. Non sono i programmatori a decidere che certi aerei /improbabili/ possono volare lo stesso con una spruzzata di AI (AI?) sopra [10]. --8<---------------cut here---------------start------------->8--- La fragilità della situazione è quella di una bolla giuridica, per usare un’espressione di Marco Giraudo: le grandi compagnie tecnologiche hanno fondato infatti il loro modello di business sull’appropriazione e la commercializzazione dei dati personali, in violazione di diritti giuridicamente tutelati, scommettendo su un successivo “salvataggio giuridico”, in nome dell’inarrestabilità dell’innovazione tecnologica. --8<---------------cut here---------------end--------------->8--- Attenzione però che la bolla giuridica riguarda la privacy dei dati personali usati come niente fosse sia con software AI che con software non-AI, non i dati in generale o il software. In merito agli argomenti usati nell'articolo per condannare l'abuso dei dati /personali/ (anche) nel calcolo dei modelli alla base di alcuni software AI sono più che d'accordo, però ci sono un'enormità di dati non personali che vengono "utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone": sui sistemi che usano quei dati non vogliamo dire o fare niente? Non ho il diritto di conoscere i meccanismi di funzionamento del software che /decide/ che un tale fenomeno è così invece che "cosà"? --8<---------------cut here---------------start------------->8--- Frank Pasquale e Gianclaudio Malgieri. La loro proposta è di disciplinare i modelli di IA ad alto rischio incorporati oggi in prodotti e servizi attraverso una presunzione di illegalità, ossia entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali, e l’onere della prova contraria dovrebbe incombere alle aziende. Prima di immettere sul mercato un prodotto o un servizio che incorpori sistemi di IA ad alto rischio, le aziende – a partire da quelle che esercitano ormai, per dimensioni e prerogative, una sovranità funzionale – avrebbero l’obbligo di dimostrare che la loro tecnologia non è discriminatoria, non è manipolatoria, non è iniqua, non è inaccurata e non è illegittima nelle sue basi giuridiche e nei suoi scopi. --8<---------------cut here---------------end--------------->8--- Nell'articolo [12] il processo di /certificazione/ viene descritto così: --8<---------------cut here---------------start------------->8--- pre-approval model in which some AI developers, before launching their systems into the market, must perform a preliminary risk assessment of their technology followed by a self-certification. --8<---------------cut here---------------end--------------->8--- Analisi di /quali/ rischi, per un software?!? Rischio di "bias", "falsi positivi", "attacchi alla supply-chain", "violazione del GDPR"? I servizi di Facebook o Google violano il GDPR ma non la normativa USA, sono (potenzialmente?) illegali in EU: c'è bisogno di una analisi dei rischi per stabilirlo? MCAS [11] è stato immesso /indirettamente/ sul mercato perché usato come componente essenziale per la sicurezza del 737 MAX, poi Boeing ha effettuato una analisi dei rischi a mio avviso (e non solo mio) RIDICOLA e FAA (non Boeing) ha certificato l'idoneità dell'aereo sulla base di quelle analisi. Considerati i problemi del software analizzati prima (correlazione e attacchi) la valutazione dei rischi fino dove si dovrebbe spingere? Analizzo il mio software o devo analizzare anche i componenti terzi? Se si, fino a che livello devo spingermi, fino alla radice dell'intera catena di build? Davvero la certificazione dei sistemi hardware+software, anche se effettuata terze parti, è una soluzione efficace nonostante si sia dimostrata nel tempo fallace [13]. “Thus, the security problem of specific computer systems must, at this point in time, be solved on a case-by-case basis, employing the best judgement of a team consisting of system programmers, technical hardware and communications specialists, and security experts.” [Security controls for computer systems (aka Ware Report), 1970] [14] Ho una modesta proposta in alternativa: perché invece che «illegal by default» non chiediamo che il software - almeno quelli che "sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone," (cit.) [15] - sia «free software by default», l'unico sistema che consentirebbe di "certificare" in modo distribuito e indipendente che il software non sia affetto da uno o più degli innumerevoli problemi di cui si discute molto? La stessa cosa, ovvamente, dovrebbe valere anche (anzi sporattutto, considerato che il rischio di abuso è forse più alto) anche per i software AI, perché è decisamente /fattibile/ [16]: The takeaway message is that for a machine-learning model to be trustworthy, you need to assure the provenance of the whole chain: the model itself, the software tools used to compile it, the training data, the order in which the data are batched and presented – in short, everything. Un problema di natura tecnica, come questo o per esempio il fatto che Internet /tecnicamente/ fa schifo [17] (questo tra l'altro ha ricadute pesantissime sulla privacy delle persone), può essere risolto solo tecnicamente. Un problema giuridico, semmai, è stato quello di non essere stati in grado di riconoscere per tempo che "code is law": nessuno accetterebbe una "macchina della giustizia" che /eseguisse/ i processi (pun intended) con un "Codice di Procedura Penale/Civile binario" (black box), sputando sentenze come output. Peché dovrebbe essere diverso con una diagnosi medica, una valutazione finanziaria, ecc? Allora perché non /pretendiamo/ che il software che utilizziamo noi stessi o che viene utilizzato da altri in un processo decisionale che ci riguarda - dalle sentenze fino alla pubblicità mirata, dal filtro dei messaggi via social fino alla concessione di finanziamenti - non sia libero come il Codice di Procedura Penale/Civile? ...in modo che tutti possano partecipare, se lo vogliono e hanno le adeguate competenze, come previsto nell'Art. 3 della nostra costituzione: E` compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l'eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l'effettiva partecipazione [...] all'organizzazione politica, economica e sociale del Paese. Non trovate che una black box (software binario, niente codice sorgente) sia uno di quegli ostacoli da /rimuovere/? :-O Saluti, 380° [1] https://www.ilpost.it/carloblengino/2019/06/09/la-piu-longeva-e-invasiva-sorveglianza-di-massa-mai-realizzata-negli-usa/ [https://www.ilpost.it/wp-content/uploads/2019/06/Who-am-I.png]<https://www.ilpost.it/carloblengino/2019/06/09/la-piu-longeva-e-invasiva-sorveglianza-di-massa-mai-realizzata-negli-usa/> L’inizio della sorveglianza di massa negli Stati Uniti - Carlo Blengino<https://www.ilpost.it/carloblengino/2019/06/09/la-piu-longeva-e-invasiva-sorveglianza-di-massa-mai-realizzata-negli-usa/> www.ilpost.it Una storia sul controllo dei dati dei consumatori dal 1968, quando non c'era internet e i computer erano molto diversi [2] o una backdoor... o attraverso un exploit (spessissimo non voluto)... [3] https://nooscope.ai/ [http://nooscope.ai/nooscope-facebook-og.jpg]<https://nooscope.ai/> The Nooscope Manifested<https://nooscope.ai/> nooscope.ai AI as Instrument of Knowledge Extractivism. By Matteo Pasquinelli and Vladan Joler [4] https://purl.archive.org/dtafanicit/Calude [5] https://www.nature.com/articles/d41586-019-00857-9 [6] https://www.tandfonline.com/toc/utas20/73/sup1?nav=tocList [https://covers.tandf.co.uk/og/UTAS.png]<https://www.tandfonline.com/toc/utas20/73/sup1?nav=tocList> The American Statistician: Vol 73, No sup1<https://www.tandfonline.com/toc/utas20/73/sup1?nav=tocList> www.tandfonline.com All journal articles featured in The American Statistician vol 73 issue sup1 [7] https://amstat.tandfonline.com/doi/full/10.1080/00031305.2016.1154108#.XInvWyPMzyW [https://covers.tandf.co.uk/og/UTAS.png]<https://amstat.tandfonline.com/doi/full/10.1080/00031305.2016.1154108#.XInvWyPMzyW> Full article: The ASA Statement on p-Values: Context, Process, and Purpose<https://amstat.tandfonline.com/doi/full/10.1080/00031305.2016.1154108#.XInvWyPMzyW> amstat.tandfonline.com Published in The American Statistician (Vol. 70, No. 2, 2016) [8] https://pluralistic.net/2022/10/11/rene-descartes-was-a-drunken-fart/#trusting-trust «Those backdoors rely on the target outsourcing their model-training to an attacker.». Il problema della "underspecification" e dei "data-set spannometrici" non sono specifici del software. [9] https://www.cs.cmu.edu/~rdriley/487/papers/Thompson_1984_ReflectionsonTrustingTrust.pdf [11] https://www.pointswithacrew.com/can-boeing-fix-a-potentially-faulty-737-max-design-with-software/ [https://www.pointswithacrew.com/wp-content/uploads/2017/03/Boeing_737_MAX-Aka-the-Beav-cc-2.0-1024x768.jpg]<https://www.pointswithacrew.com/can-boeing-fix-a-potentially-faulty-737-max-design-with-software/> Can Boeing fix a potentially faulty 737 MAX design with software? - Points with a Crew<https://www.pointswithacrew.com/can-boeing-fix-a-potentially-faulty-737-max-design-with-software/> www.pointswithacrew.com Boeing has announced an update for the MCAS system of their new 737 MAX aircraft. But will this be enough to render the aircraft safe? [12] https://brusselsprivacyhub.com/2022/06/01/brussels-privacy-hub-working-paper-from-transparency-to-justification-toward-ex-ante-accountability-for-ai-by-gianclaudio-malgieri-and-frank-pasquale-has-been-published/ [13] How Certification Systems Fail: Lessons from the Ware Report† https://www.cl.cam.ac.uk/~rja14/Papers/ieeesp12warereport.pdf [14] https://csrc.nist.gov/csrc/media/publications/conference-paper/1998/10/08/proceedings-of-the-21st-nissc-1998/documents/early-cs-papers/ware70.pdf [15] quale software non ha un effetto rilevante sulle vite delle persone? [16] https://www.lightbluetouchpaper.org/2022/10/10/ml-models-must-also-think-about-trusting-trust/ [17] https://youbroketheinternet.org/ -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>. Introduction | Stallman Support<https://stallmansupport.org/> stallmansupport.org False accusations were made against Richard Stallman in September 2019. They started a cascade of difamatory reactions that spread like wildfire, fueled by misquotes and misrepresentation of events in mainstream headlines, blogs, and social media that ultimately led to Stallman's resignation from his positions at Mit and the FSF
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa