Questa notizia mi ha triggerato un piccolo rant¹ per una questione
tangenziale al crimine di guerra, cioè che come consumatori di notizie c'è
una mancanza di spirito critico nel giudicare la bontà dell'AI.

Nel thread, mi sembra stiate considerando il prodotto come l'innovazione,
ma secondo me l'unica cosa nuova qui è il racconto che se ne fa attorno.

Il caso d'uso vede i militari avere bombe illimitate, non essere
responsabili per gli innocenti uccisi, e avere il potere di dichiarare che
ogni persona uccisa sia un terrorista e quindi target legittimo.

Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il
famoso "we kill based on metadata", alla fine sono stime, approssimazione,
e un misto di signal e human intelligence che va a creare la kill list. Ma
specialmente non c'è nessun incentivo a non commettere errori. Non c'è una
possibile misurazione del successo, e le stime date nel pezzo (per
ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una
bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le
vittime. Non sono stime tollerabili da una corte, da un programmatore, da
un politico.

Io non so se questo Lavender sia diverso da un sistema che studia le
heatmap da un drone, vede dove molte persone stanno ferme ( = stanno
dormendo) e in quel momento spende la bomba per massimizzare le uccisioni.
Oppure tira un dado e sceglie così i target. Non lo so io, non credo lo
sappiano i militari che caricano i missili, e non credo lo sappiano neppure
gli sviluppatori di Lavender perchè tanto, hai dati imprecisi in ogni
anello della catena, e nessun incentivo a metterli in discussione.

E, oltre che star cercar di legittimare, su grande scala, l'uso di armi
automatiche e imprecise:

1) mi sembra tanto una storia volta a distaccare i militari dalla
partecipazione al genocidio. Una sorta di pallottola a salve usata dal
plotone di esecuzione
2) mi sembra pubblicità gratuita all'industria militare, che certamente
vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso
dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione


¹ https://twitter.com/_vecna/status/1776317177135874371



On Fri, Apr 5, 2024 at 10:50 AM Daniela Tafani <daniela.taf...@unipi.it>
wrote:

> Caro Maurizio,
>
> Il 05/04/2024 19:29, maurizio lana ha scritto:
> > il medesimo giornalista aveva già scritto su temi simili in novembre
> 2023:
> > Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s
> Calculated Bombing of Gaza». +972 Magazine, 30 novembre 2023.
> https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
> .
> > +972 Magazine è un'iniziativa giornalistica congiunta
> israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava
> di giornalisti giornalisti
> >
> > sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari
> è uscito un libro anonimo a cura di un alto ufficiale israeliano:
> > Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy
> Between Human and Artificial Intelligence That Will Revolutionize Our
> World. Independently Published, 2021.
> > che in sostanza espone i presupposti teorici e progettuali di ciò che
> gli articoli di Abraham descrivono.
> > lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo.
> > perché mi pare che questo libro porti il discorso sull'IA in territori a
> cui non avevamo mai pensato, tutti presi da altri aspetti più
> evidenti/appariscenti.
> >
>
> Non mi pare che siano territori nuovi: lo sviluppo dei sistemi di
> apprendimento automatico ha luogo entro una relazione, originaria e
> costitutiva,
> con l’apparato militare e i sistemi statali di sorveglianza.
> Su questa lista è stato segnalato un bel lavoro su questo tema:
> https://www.lem.sssup.it/WPLem/files/2023-47.pdf
>
> I primi sistemi di computer vision, del resto, sono stati realizzati per
> automatizzare la fotointerpretazione delle immagini aeree, alla ricerca di
> oggetti di interesse militare:
> https://www.upress.umn.edu/book-division/books/the-birth-of-computer-vision
>
> e alla filiera della sorveglianza il settore resta intimamente legato:
> https://arxiv.org/abs/2309.15084
>
> Esprimere tale  relazione  con l’espressione “dual use” è fuorviante: i
> sistemi  concepiti  per fini militari conservano l’impostazione, la
> concettualizzazione  degli oggetti di interesse, gli assunti normativi e
> la logica originari.  La polizia predittiva, ad esempio, trasforma la
> totalità dei cittadini in persone oggetto di sorveglianza, estendendo
> all’ambito civile la logica militare dell’intelligence e sopprimendo il
> diritto individuale a non essere oggetto di sorveglianza senza fondate
> ragioni.
> E il dilemma del trolley applicato alle auto a presunta guida autonoma
> concettualizza i veicoli civili come armi che selezionino gli obiettivi
> umani da abbattere.
>
> Buona serata,
> Daniela
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>


-- 
Claudio Agosti - Hermes Center, AI Forensics, Reversing Works.
Platform Auditor & Tech Researcher
[ linktr.ee/claudio.agosti ]
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to