Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G.
On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolp...@gmail.com> wrote: > Ciao Daniela, > > On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.taf...@unipi.it> > wrote: > >> Grazie della segnalazione e della trascrizione. >> >> Si qualificano più volte questi sistemi come "sofisticati". >> Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità >> dei sistemi statistici adottati per l'eliminazione di persone. >> >> C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a >> fini commerciali con quelli a finalità militare: >> gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare >> una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno >> sono utilizzati per identificare un essere umano da uccidere sulla base >> della sua appartenenza a un gruppo Whatsapp >> e da localizzarlo in eventuale compagnia di qualche centinaio di altre >> persone. >> > > Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, > veniva utilizzata in codice spesso per indicare le bombe, ma all'interno > della popolazione di Gaza era anche una parola di uso comune quando si > tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi > nella Striscia, sono quasi uno dei simboli..." > > Ma, a mio avviso, la causa ancora più grave è stata la deregulation > 'disumana', in tutti i sensi, dei processi decisionali: > "... Questa debolezza linguistica, che prima veniva corretta con l'uso di > esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti > a caso, così come poi è stata pesantissima la decisione presa nelle prime > ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del > rischio per i civili." > > Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos > The computerization of the world and international cooperation - Nexa > Center for Internet & Society > <https://nexa.polito.it/the-computerization-of-the-world-and-international-cooperation/> > > Grazie Maurizio per la trascrizione > Cordiali saluti, Alessandro > >> ________________________________________ >> Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di maurizio lana >> <maurizio.l...@uniupo.it> >> Inviato: sabato 18 gennaio 2025 14:03 >> A: nexa@server-nexa.polito.it >> Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti >> >> Il 18/01/25 10:40, Alessandro Brolpito ha scritto: >> Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. >> La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a >> Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi >> alla IA per, prima, la valutazione del rischio Hamas e, successivamente, >> per definire i targets e le morti di civili tollerabili, come effetto >> collaterale dei bombardamenti. >> >> https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradossi_e_rischi_della_prima_guerra_affidata_alle_macchine_e_allintelligenza_artificiale-423945250/ >> Chi è responsabile da un punto di vista giuridico di questi morti? >> Che sia almeno tregua a tutto questo, da domani. >> testo del podcast citato, estratto con Macwhisper: >> Quella di Gaza è la prima guerra in cui a decidere chi doveva essere >> ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono >> state affidate per la prima volta pressoché integralmente a dei sofisticati >> sistemi di intelligenza artificiale, tra l'altro animati dal machine >> learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli >> stessi software, riuscivano a migliorare le loro capacità. Alla fine a >> ordinare il bombardamento c'era sempre un essere umano, ma tutto il >> processo decisionale, quello che i tecnici chiamano targeting, che porta a >> scegliere un bersaglio, che porta a scegliere la persona da uccidere, che >> porta a valutare qual è il rischio di coinvolgere civili innocenti in >> quell'attacco, è stato affidato a dei software. >> Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre >> 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e >> tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono >> state uccise o colpite per effetto di questo selezionamento fatto >> dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati >> raccapriccianti che emergono in una serie di inchieste realizzate dal New >> York Times, dal Washington Post, da giornali indipendenti israeliani. Nel >> primo mese della campagna di bombardamenti decisa da Israele risposta >> all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il >> rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei >> bersagli bombardati sono stati selezionati dall'intelligenza artificiale. >> Questo è un grande cambiamento nella cultura della guerra e in uno degli >> aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, >> aveva particolarmente curato, e cioè come si arriva a scegliere chi va >> colpito e come si arriva a calcolare il rischio di coinvolgere civili >> nell'operazione. Israele aveva sempre mantenuto il controllo di questo >> processo nelle mani di analisti dell'intelligence di persone e in >> particolar modo aveva favorito una forma di cultura dell'allerta in cui >> anche il livello più basso di questa catena gerarchica, anche il sotto >> ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, >> poteva prendere e rivolgersi direttamente al comandante in capo. >> Non solo, perché comunque Israele è una democrazia, è uno stato di >> diritto, nel processo per selezionare i bersagli e per creare questa sorta >> di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in >> caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine >> del processo c'era sempre la figura di un avvocato militare che doveva >> valutare se l'operazione pianificata era o meno compatibile con le leggi. >> In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa >> esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte >> queste regole. C'è un qualcosa di paradossale nella fiducia accordata a >> questi sistemi di intelligenza artificiale, di machine learning, di big >> data, perché proprio il fatto di aver affidato la sorveglianza a queste >> macchine, affidato la gestione dell'intelligenza preventiva a questi >> sistemi elettronici invece che non agli agenti sul campo, è stato uno degli >> elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le >> persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia >> "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di >> tutti questi sistemi informatici ed elettronici che in qualche modo ha >> lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 >> ottobre viene gestita da queste macchine. >> C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i >> satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, >> delle comunicazioni internet, delle chat, con l'uso di spugne di dati >> sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili >> ma la cui vera natura è quella di essere gli straordinari raccoglitori di >> informazioni. Addirittura, per capirci, si usava il confronto tra foto >> satellitari scattate in periodi diversi per capire se il terreno era stato >> mosso e quindi poteva nascondere dei razzi che venivano sepolti prima >> dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo >> di machine learning, come riconoscere un certo tipo, un determinato tipo di >> tessuto che veniva più frequentemente utilizzato da Damas per coprire i >> missili messi nel terreno in modo tale che le macchine, questi sistemi >> informatici di analisi, potessero trovare questo tessuto all'interno delle >> foto satellitari scattate in continuazione sopra Gaza. Tutte queste >> informazioni poi venivano messe in una grande struttura di bidata chiamata >> The Pool, la piscina, e all'interno di questa struttura operavano due >> software, entrambi sviluppati dall'unità 8200 che è il reparto >> dell'esercito israeliano specializzato nell'intelligence elettronica e >> nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella >> gestione di queste operazioni. >> All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il >> Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era >> soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, >> i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro >> invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, >> si occupava di individuare le persone che erano presunti miliziani, >> presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, >> limiti alcuni nel modo in cui venivano elaborate le informazioni, ad >> esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata >> in codice spesso per indicare le bombe, ma all'interno della popolazione di >> Gaza era anche una parola di uso comune quando si tratta di mangiare, >> consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono >> quasi uno dei simboli. Il sistema, pur sofisticato, non era così >> intelligente da riuscire a distinguere quando veniva usato per parlare di >> meloni o quando veniva usato invece per discutere di ordini. >> Questa debolezza linguistica, che prima veniva corretta con l'uso di >> esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti >> a caso, così come poi è stata pesantissima la decisione presa nelle prime >> ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del >> rischio per i civili. È stato possibile scatenare attacchi anche quando >> mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima >> del 7 ottobre Israele tollerava solo in casi straordinari la possibilità >> che venisse messa a rischio la vita di 5 civili e in casi ancora più >> eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter >> uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo >> della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta >> per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, >> secondo il censimento della ONG britannica Airwards, 136 attacchi in cui >> sono morti più di 50 civili. >> Questo anche a causa di un altro dei difetti di valutazione di queste >> macchine a cui è stata affidata la scelta di vita o di morte. Queste >> macchine per valutare la presenza di civili stimavano il numero di >> cellulari attivi nella zona del bersaglio e lo comparavano con quello >> precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, >> quante persone c'erano in quella zona, ignorando il fatto che il >> funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a >> causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi >> c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non >> potevano usare il cellulare. Questo ha portato a valutare un numero di >> civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha >> contribuito a realizzare quella terribile strage che noi vediamo. >> Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big >> data, il machine learning hanno fornito le indicazioni, hanno selezionato >> bersagli spesso sbagliati e hanno sottovalutato il numero di vittime >> civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli >> eserciti stanno utilizzando intelligenza artificiale e big data per tutta >> la fase del combattimento, incluso quella di stabilire chi colpire. Le >> macchine decidono chi colpire e le colpiscono automaticamente. E quello che >> viene indicato proprio dagli esperti delle forze armate israeliane che >> hanno contribuito a generare questi enormi sistemi di algoritmi è che >> l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto >> orgoglioso, molto confidente delle sue capacità e tende a ritenersi >> superiore all'uomo. Sono le premesse di un futuro che è già presente e che >> si annuncia terribile. >> >> alcune delle inchieste citate sono: >> Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s >> calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. >> https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/ >> . >> ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in >> Gaza». +972 Magazine, 3 aprile 2024. >> https://www.972mag.com/lavender-ai-israeli-army-gaza/. >> McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel >> used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, >> sez. World news. >> https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes >> . >> >> questo il manuale israeliano prodotto dall'unità 8200: >> Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy >> Between Human and Artificial Intelligence That Will Revolutionize Our >> World. Independently Published, 2021. >> Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true >> identity in online security lapse». The Guardian, 5 aprile 2024, sez. World >> news. >> https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-his-true-identity-in-online-security-lapse >> . >> >> in parte ne avevamo già parlato qui in lista. >> la frase finale del podcast di Di Feo è il punto si cui riflettere, io >> credo: >> l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto >> orgoglioso, molto confidente delle sue capacità e tende a ritenersi >> superiore all'uomo >> (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel >> senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, >> proprio) >> diciamo che l'umano volontariamente si asservisce alla macchina e con ciò >> crede di giustificarsi? >> perché quella esposta è una forma estrema di personalizzazione dei >> sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. >> come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le >> persone. >> Maurizio >> >> >> ________________________________ >> >> s'il n'y a même plus l'humour pour nous alléger >> comment lutter >> prohom, comment lutter >> >> ________________________________ >> Maurizio Lana >> Università del Piemonte Orientale >> Dipartimento di Studi Umanistici >> Piazza Roma 36 - 13100 Vercelli >> >