Questa notizia mi ha triggerato un piccolo rant¹ per una questione tangenziale al crimine di guerra, cioè che come consumatori di notizie c'è una mancanza di spirito critico nel giudicare la bontà dell'AI.
Nel thread, mi sembra stiate considerando il prodotto come l'innovazione, ma secondo me l'unica cosa nuova qui è il racconto che se ne fa attorno. Il caso d'uso vede i militari avere bombe illimitate, non essere responsabili per gli innocenti uccisi, e avere il potere di dichiarare che ogni persona uccisa sia un terrorista e quindi target legittimo. Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list. Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico. Io non so se questo Lavender sia diverso da un sistema che studia le heatmap da un drone, vede dove molte persone stanno ferme ( = stanno dormendo) e in quel momento spende la bomba per massimizzare le uccisioni. Oppure tira un dado e sceglie così i target. Non lo so io, non credo lo sappiano i militari che caricano i missili, e non credo lo sappiano neppure gli sviluppatori di Lavender perchè tanto, hai dati imprecisi in ogni anello della catena, e nessun incentivo a metterli in discussione. E, oltre che star cercar di legittimare, su grande scala, l'uso di armi automatiche e imprecise: 1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione 2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione ¹ https://twitter.com/_vecna/status/1776317177135874371 On Fri, Apr 5, 2024 at 10:50 AM Daniela Tafani <daniela.taf...@unipi.it> wrote: > Caro Maurizio, > > Il 05/04/2024 19:29, maurizio lana ha scritto: > > il medesimo giornalista aveva già scritto su temi simili in novembre > 2023: > > Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s > Calculated Bombing of Gaza». +972 Magazine, 30 novembre 2023. > https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/ > . > > +972 Magazine è un'iniziativa giornalistica congiunta > israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava > di giornalisti giornalisti > > > > sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari > è uscito un libro anonimo a cura di un alto ufficiale israeliano: > > Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy > Between Human and Artificial Intelligence That Will Revolutionize Our > World. Independently Published, 2021. > > che in sostanza espone i presupposti teorici e progettuali di ciò che > gli articoli di Abraham descrivono. > > lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo. > > perché mi pare che questo libro porti il discorso sull'IA in territori a > cui non avevamo mai pensato, tutti presi da altri aspetti più > evidenti/appariscenti. > > > > Non mi pare che siano territori nuovi: lo sviluppo dei sistemi di > apprendimento automatico ha luogo entro una relazione, originaria e > costitutiva, > con l’apparato militare e i sistemi statali di sorveglianza. > Su questa lista è stato segnalato un bel lavoro su questo tema: > https://www.lem.sssup.it/WPLem/files/2023-47.pdf > > I primi sistemi di computer vision, del resto, sono stati realizzati per > automatizzare la fotointerpretazione delle immagini aeree, alla ricerca di > oggetti di interesse militare: > https://www.upress.umn.edu/book-division/books/the-birth-of-computer-vision > > e alla filiera della sorveglianza il settore resta intimamente legato: > https://arxiv.org/abs/2309.15084 > > Esprimere tale relazione con l’espressione “dual use” è fuorviante: i > sistemi concepiti per fini militari conservano l’impostazione, la > concettualizzazione degli oggetti di interesse, gli assunti normativi e > la logica originari. La polizia predittiva, ad esempio, trasforma la > totalità dei cittadini in persone oggetto di sorveglianza, estendendo > all’ambito civile la logica militare dell’intelligence e sopprimendo il > diritto individuale a non essere oggetto di sorveglianza senza fondate > ragioni. > E il dilemma del trolley applicato alle auto a presunta guida autonoma > concettualizza i veicoli civili come armi che selezionino gli obiettivi > umani da abbattere. > > Buona serata, > Daniela > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > -- Claudio Agosti - Hermes Center, AI Forensics, Reversing Works. Platform Auditor & Tech Researcher [ linktr.ee/claudio.agosti ]
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa