Hai ragione: nulla di piu’ facile che incolpare una macchina, o uno stagista, per mettere a tacere la coscienza, specie delle lobby americane che tanto lavorano per spedire altri missili ad Israele Ciao Rob
From: nexa <nexa-boun...@server-nexa.polito.it> On Behalf Of Guido Vetere Sent: Saturday, April 6, 2024 10:11 AM To: 380° <g...@biscuolo.net> Cc: nexa@server-nexa.polito.it Subject: [CAUTION: SUSPECT SENDER] Re: [nexa] "‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza" Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto: | migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale* Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da prendere, ma sono tutte umane:. 1) come costruire la funzione di interpretazione 2) come valutare la sua adeguatezza 3) come usarla in pratica Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo? A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica euristica supplementare sia quella di non sparare sulle donne: ben strano che un classificatore così accurato non sia in grado di discriminare questa 'feature'). Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che criticare le decisioni umane che sono alla base di certi suoi specifici impieghi. Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia collettiva, sia soggettiva. G. [1] Joseph Gabel, La falsa coscienza https://edizionidedalo.it/1136-la-falsa-coscienza.html<https://eu-west-1.protection.sophos.com?d=edizionidedalo.it&u=aHR0cHM6Ly9lZGl6aW9uaWRlZGFsby5pdC8xMTM2LWxhLWZhbHNhLWNvc2NpZW56YS5odG1s&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=dlZuaVZEM2hIdEVaeXJJSWFPZFM4OGpraXk4dzJLSGZMeHBHaXp1VkdhQT0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> On Sat, 6 Apr 2024 at 14:47, 380° < g...@biscuolo.net<mailto:g...@biscuolo.net>> wrote: Buongiorno Claudio, Claudio Agosti < claudio.ago...@hermescenter.org<mailto:claudio.ago...@hermescenter.org>> writes: [...] > Nel thread, mi sembra stiate considerando il prodotto come > l'innovazione, non capisco da cosa lo deduci, forse sarebbe più efficace se citassi qualche passo che ti fa sembrare così... forse sarebbe più efficace non usare il "top posting"? ;-) [...] > Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il > famoso "we kill based on metadata", alla fine sono stime, approssimazione, > e un misto di signal e human intelligence che va a creare la kill > list. dici bene, avevo i tuoi stessi argomenti sulla punta della lingua: grazie per averli espressi così chiaramente e in modo efficacemente sintetico! > Ma specialmente non c'è nessun incentivo a non commettere errori. Non > c'è una possibile misurazione del successo, e le stime date nel pezzo > (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, > sparando una bomba mentre dorme con la sua famiglia?) sono solo volte > a de-umanizzare le vittime. Non sono stime tollerabili da una corte, > da un programmatore, da un politico. ma soprattutto, con tutte queste informazioni in merito al contesto, che cavolo di differenza fa se la bomba la spara un drone in modo completamente automatico perché l'attuatore è controllato direttamente da una "AI" o se la spara un drone in modo completamente "manuale" perché l'attuatore è comandato da un militare in carne ed ossa, magari a 500Km di distanza? tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un tanto al chilo oltretutto i parametri (il signal) per la "kill list" sono sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al famosissimo problema del "individua _statisticamente_ lo sporco X", con il risultato che spesso succede che ricade nella definizione un significativo sottoinsieme del genere umano, senza manco essere "sporco X" [...] > 1) mi sembra tanto una storia volta a distaccare i militari dalla > partecipazione al genocidio. Una sorta di pallottola a salve usata dal > plotone di esecuzione interessante: potrebbe essere sì; una specie di "obbedivo agli ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI gli ordini se li dava da sola" > 2) mi sembra pubblicità gratuita all'industria militare, che certamente > vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso > dell'AI per applicazioni militari è tenuto escluso da ogni > regolamentazione ma perché l'uso di altro software per applicazioni militari come è incluso in qualche regolamentazione? cioè: l'uso di software per applicazioni militari in che modo dovrebbe essere regolamentato? ...se già NON si riesce a far applicare la regolamentazione di ben altre cose (tipo i genocidi), quando si fanno le guerre?!? tra l'altro, faccio sommessamente notare che purtroppo ci sono sofisticate (sofistiche?!?) discussioni ad altissimi livelli intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1] piuttosto che crimine di guerra [2], oppure legittima lotta al terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo qui perché passerei nel penale. > ¹ > https://twitter.com/_vecna/status/1776317177135874371<https://eu-west-1.protection.sophos.com?d=twitter.com&u=aHR0cHM6Ly90d2l0dGVyLmNvbS9fdmVjbmEvc3RhdHVzLzE3NzYzMTcxNzcxMzU4NzQzNzE=&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Z3E1NGk1alpPYjNNUVBsTVEvT3gzUS9GMVhIUVp1b2FmVEl4bHBOWVlXST0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> La riporto ai fini archivistici: --8<---------------cut here---------------start------------->8--- Claudio Agosti @_vecna In addition to that (the responsibility is not being transferred to the AI to absolve the human user), I would like to debunk a false narrative that involves AI and whether it is important for us as consumers of AI. 🧵 Paul Biggar 🇵🇸🇮🇪 @paulbiggar Correct me if I'm wrong, but in occupied territory, you can't kill militants off the battle field, even if you identify them correctly. So every kill by Lavender/Where's Daddy is a war crime? --8<---------------cut here---------------end--------------->8--- [...] [1] https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_Unite<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvR2Vub2NpZGlvI0RlZmluaXppb25lX3VmZmljaWFsZV9kZWxsZV9OYXppb25pX1VuaXRl&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=YkREa2dwZVoyYnphTUovVVAvQkVNVTV3TSs1c0JISG5aTTJIdld5ckYxOD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> [2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvQ3JpbWluZV9kaV9ndWVycmEjTGFfbGVnaXNsYXppb25l&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=RmJlc05STS85OU4wVHBVNDdEMmhDVFNhZG5oNFNSNjYwS3BWTkRDRktJMD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about < https://stallmansupport.org<https://eu-west-1.protection.sophos.com?d=stallmansupport.org&u=aHR0cHM6Ly9zdGFsbG1hbnN1cHBvcnQub3Jn&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Q3hWanBvU28vR3oySWxwYTVkTE16dFpEYjlMekRLRWE3eHd6Qm5kNmVWcz0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://eu-west-1.protection.sophos.com?d=polito.it&u=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE=&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=cWFFS0o0Y1lWM0p6Q3Y2MElMYzQrMUowelVLNElPaHN0NFFDSHorWWJqST0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa