Il 18/01/25 10:40, Alessandro Brolpito ha scritto:
Un breve video reportage focalizzato sul conflitto tra Israele e Hamas.
La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a
Gaza c'è un unico grande respisabile: la decisione (politica) di
affidarsi alla IA per, prima, la valutazione del rischio Hamas e,
successivamente, per definire i targets e le morti di civili
tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradossi_e_rischi_della_prima_guerra_affidata_alle_macchine_e_allintelligenza_artificiale-423945250/
Chi è responsabile da un punto di vista giuridico di questi morti?
Che sia almeno tregua a tutto questo, da domani.
testo del podcast citato, estratto con Macwhisper:
Quella di Gaza è la prima guerra in cui a decidere chi doveva essere
ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte
sono state affidate per la prima volta pressoché integralmente a dei
sofisticati sistemi di intelligenza artificiale, tra l'altro animati
dal machine learning, cioè dalla capacità di apprendimento. Le stesse
macchine, gli stessi software, riuscivano a migliorare le loro
capacità. Alla fine a ordinare il bombardamento c'era sempre un essere
umano, ma tutto il processo decisionale, quello che i tecnici chiamano
targeting, che porta a scegliere un bersaglio, che porta a scegliere
la persona da uccidere, che porta a valutare qual è il rischio di
coinvolgere civili innocenti in quell'attacco, è stato affidato a dei
software.
Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e
oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza
di civili e tantissime donne e bambini che nulla avevano a che vedere
con Hamas, sono state uccise o colpite per effetto di questo
selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato,
uno dei tanti dati raccapriccianti che emergono in una serie di
inchieste realizzate dal New York Times, dal Washington Post, da
giornali indipendenti israeliani. Nel primo mese della campagna di
bombardamenti decisa da Israele risposta all'incursione di Hamas del 7
ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini
israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati
sono stati selezionati dall'intelligenza artificiale.
Questo è un grande cambiamento nella cultura della guerra e in uno
degli aspetti che proprio Israele, paese che lotta per la sua
sovravvivenza, aveva particolarmente curato, e cioè come si arriva a
scegliere chi va colpito e come si arriva a calcolare il rischio di
coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il
controllo di questo processo nelle mani di analisti dell'intelligence
di persone e in particolar modo aveva favorito una forma di cultura
dell'allerta in cui anche il livello più basso di questa catena
gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco
che stava per essere commesso, poteva prendere e rivolgersi
direttamente al comandante in capo.
Non solo, perché comunque Israele è una democrazia, è uno stato di
diritto, nel processo per selezionare i bersagli e per creare questa
sorta di archivio in cui c'erano tutti gli obiettivi che si potevano
colpire in caso di conflitto con Hezbollah o in caso di conflitto con
Hamas, alla fine del processo c'era sempre la figura di un avvocato
militare che doveva valutare se l'operazione pianificata era o meno
compatibile con le leggi. In 7 ottobre il fatto che Israele si
sentisse minacciato nella sua stessa esistenza dall'incursione di
Hamas ha spinto invece ad eliminare tutte queste regole. C'è un
qualcosa di paradossale nella fiducia accordata a questi sistemi di
intelligenza artificiale, di machine learning, di big data, perché
proprio il fatto di aver affidato la sorveglianza a queste macchine,
affidato la gestione dell'intelligenza preventiva a questi sistemi
elettronici invece che non agli agenti sul campo, è stato uno degli
elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le
persone. Si è sentito dire tante volte che è stata l'assenza di la
vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo
sviluppo di tutti questi sistemi informatici ed elettronici che in
qualche modo ha lasciato indifeso Israele. Eppure, in maniera
paradossale, la risposta al 7 ottobre viene gestita da queste macchine.
C'è un'enorme raccolta di informazioni che viene fatta con i droni,
con i satelliti, con le intercettazioni di tutte le comunicazioni
telefoniche, delle comunicazioni internet, delle chat, con l'uso di
spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo
i caccia invisibili ma la cui vera natura è quella di essere gli
straordinari raccoglitori di informazioni. Addirittura, per capirci,
si usava il confronto tra foto satellitari scattate in periodi diversi
per capire se il terreno era stato mosso e quindi poteva nascondere
dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato
insegnato alle macchine, al loro meccanismo di machine learning, come
riconoscere un certo tipo, un determinato tipo di tessuto che veniva
più frequentemente utilizzato da Damas per coprire i missili messi nel
terreno in modo tale che le macchine, questi sistemi informatici di
analisi, potessero trovare questo tessuto all'interno delle foto
satellitari scattate in continuazione sopra Gaza. Tutte queste
informazioni poi venivano messe in una grande struttura di bidata
chiamata The Pool, la piscina, e all'interno di questa struttura
operavano due software, entrambi sviluppati dall'unità 8200 che è il
reparto dell'esercito israeliano specializzato nell'intelligence
elettronica e nella designazione dei bersagli e che ha avuto un ruolo
fondamentale nella gestione di queste operazioni.
All'interno di The Pool agivano due sistemi, uno chiamato The Gospel,
il Vangelo, che si occupava di andare a scegliere gli obiettivi,
quindi era soprattutto focalizzato su quelle che potevano essere i
nasconditi di armi, i tunnel, tutto ciò che rappresentava le
infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa
perché sia stato scelto questo nome, si occupava di individuare le
persone che erano presunti miliziani, presunti combattenti di Damas.
Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in
cui venivano elaborate le informazioni, ad esempio la parola batik,
che vuol dire melone in arabo, veniva utilizzata in codice spesso per
indicare le bombe, ma all'interno della popolazione di Gaza era anche
una parola di uso comune quando si tratta di mangiare, consumare,
comprare dei meloni che sono molto diffusi nella Striscia, sono quasi
uno dei simboli. Il sistema, pur sofisticato, non era così
intelligente da riuscire a distinguere quando veniva usato per parlare
di meloni o quando veniva usato invece per discutere di ordini.
Questa debolezza linguistica, che prima veniva corretta con l'uso di
esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati
scelti a caso, così come poi è stata pesantissima la decisione presa
nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla
valutazione del rischio per i civili. È stato possibile scatenare
attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa
molto forte perché prima del 7 ottobre Israele tollerava solo in casi
straordinari la possibilità che venisse messa a rischio la vita di 5
civili e in casi ancora più eccezionali che venisse messa a rischio la
vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di
colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la
regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di
guerra. Ma in questa fase ci sono stati, secondo il censimento della
ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili.
Questo anche a causa di un altro dei difetti di valutazione di queste
macchine a cui è stata affidata la scelta di vita o di morte. Queste
macchine per valutare la presenza di civili stimavano il numero di
cellulari attivi nella zona del bersaglio e lo comparavano con quello
precedente alla guerra. Da ciò disumevano quanto era popolata quella
zona, quante persone c'erano in quella zona, ignorando il fatto che il
funzionamento dei cellulari a causa dell'assenza di corrente
elettrica, a causa delle condizioni drammatiche, spesso era ridotto al
minimo. Quindi c'erano tante persone che rispetto a prima del 7
ottobre non usavano, non potevano usare il cellulare. Questo ha
portato a valutare un numero di civili presenti sul luogo di
bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare
quella terribile strage che noi vediamo.
Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big
data, il machine learning hanno fornito le indicazioni, hanno
selezionato bersagli spesso sbagliati e hanno sottovalutato il numero
di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi
entrambi gli eserciti stanno utilizzando intelligenza artificiale e
big data per tutta la fase del combattimento, incluso quella di
stabilire chi colpire. Le macchine decidono chi colpire e le
colpiscono automaticamente. E quello che viene indicato proprio dagli
esperti delle forze armate israeliane che hanno contribuito a generare
questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza
artificiale a un certo punto diventa molto orgoglioso, molto
confidente delle sue capacità e tende a ritenersi superiore all'uomo.
Sono le premesse di un futuro che è già presente e che si annuncia
terribile.
alcune delle inchieste citate sono:
Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s
calculated bombing of Gaza». /+972 Magazine/, 30 novembre 2023.
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/.
———. «‘Lavender’: The AI machine directing Israel’s bombing spree in
Gaza». /+972 Magazine/, 3 aprile 2024.
https://www.972mag.com/lavender-ai-israeli-army-gaza/.
McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel
used AI to identify 37,000 Hamas targets». /The Guardian/, 3 aprile
2024, sez. World news.
https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes.
questo il manuale israeliano prodotto dall'unità 8200:
Y.S., Brigadier General. /The Human-Machine Team: How to Create Synergy
Between Human and Artificial Intelligence That Will Revolutionize Our
World/. Independently Published, 2021.
Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his
true identity in online security lapse». /The Guardian/, 5 aprile 2024,
sez. World news.
https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-his-true-identity-in-online-security-lapse.
in parte ne avevamo già parlato qui in lista.
la frase finale del podcast di Di Feo è il punto si cui riflettere, io
credo:
l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto
orgoglioso, molto confidente delle sue capacità e tende a ritenersi
superiore all'uomo
(mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel
senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla,
proprio)
diciamo che l'umano volontariamente si asservisce alla macchina e con
ciò crede di giustificarsi?
perché quella esposta è una forma estrema di personalizzazione dei
sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'.
come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le
persone.
Maurizio
------------------------------------------------------------------------
s'il n'y a même plus l'humour pour nous alléger
comment lutter
prohom, comment lutter
------------------------------------------------------------------------
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli