Hai ragione: nulla di piu’ facile che incolpare una macchina, o uno stagista, 
per mettere a tacere la coscienza, specie delle lobby americane che tanto 
lavorano per spedire altri missili ad Israele
Ciao
Rob

From: nexa <nexa-boun...@server-nexa.polito.it> On Behalf Of Guido Vetere
Sent: Saturday, April 6, 2024 10:11 AM
To: 380° <g...@biscuolo.net>
Cc: nexa@server-nexa.polito.it
Subject: [CAUTION: SUSPECT SENDER] Re: [nexa] "‘Lavender’: The AI machine 
directing Israel’s bombing spree in Gaza"


Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul 
Manifesto:

| migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti 
israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale*

Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non 
essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto 
denso nelle discussioni su etica e AI che ascoltiamo in questi tempi

L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 
'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità 
sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei 
sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da 
prendere, ma sono tutte umane:.
1) come costruire la funzione di interpretazione
2) come valutare la sua adeguatezza
3) come usarla in pratica

Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi 
colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il 
benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono 
andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? 
Cioè: prima ammazzi qualcuno e poi gli fai un processo?

A me sembra che in questo caso l'AI sia stata arruolata in una operazione di 
propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che 
comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i 
soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso 
*perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica 
euristica supplementare sia quella di non sparare sulle donne: ben strano che 
un classificatore così accurato non sia in grado di discriminare questa 
'feature').

Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. 
Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo 
scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che 
criticare le decisioni umane che sono alla base di certi suoi specifici 
impieghi.

Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha 
a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul 
quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 
'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione 
che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia 
collettiva, sia soggettiva.

G.

[1] Joseph Gabel, La falsa coscienza 
https://edizionidedalo.it/1136-la-falsa-coscienza.html<https://eu-west-1.protection.sophos.com?d=edizionidedalo.it&u=aHR0cHM6Ly9lZGl6aW9uaWRlZGFsby5pdC8xMTM2LWxhLWZhbHNhLWNvc2NpZW56YS5odG1s&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=dlZuaVZEM2hIdEVaeXJJSWFPZFM4OGpraXk4dzJLSGZMeHBHaXp1VkdhQT0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>

On Sat, 6 Apr 2024 at 14:47, 380° < 
g...@biscuolo.net<mailto:g...@biscuolo.net>> wrote:
Buongiorno Claudio,

Claudio Agosti < 
claudio.ago...@hermescenter.org<mailto:claudio.ago...@hermescenter.org>> writes:

[...]

> Nel thread, mi sembra stiate considerando il prodotto come
> l'innovazione,

non capisco da cosa lo deduci, forse sarebbe più efficace se citassi
qualche passo che ti fa sembrare così...

forse sarebbe più efficace non usare il "top posting"? ;-)

[...]

> Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il
> famoso "we kill based on metadata", alla fine sono stime, approssimazione,
> e un misto di signal e human intelligence che va a creare la kill
> list.

dici bene, avevo i tuoi stessi argomenti sulla punta della lingua:
grazie per averli espressi così chiaramente e in modo efficacemente
sintetico!

> Ma specialmente non c'è nessun incentivo a non commettere errori. Non
> c'è una possibile misurazione del successo, e le stime date nel pezzo
> (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti,
> sparando una bomba mentre dorme con la sua famiglia?) sono solo volte
> a de-umanizzare le vittime. Non sono stime tollerabili da una corte,
> da un programmatore, da un politico.

ma soprattutto, con tutte queste informazioni in merito al contesto, che
cavolo di differenza fa se la bomba la spara un drone in modo
completamente automatico perché l'attuatore è controllato direttamente
da una "AI" o se la spara un drone in modo completamente "manuale"
perché l'attuatore è comandato da un militare in carne ed ossa, magari a
500Km di distanza?

tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un
tanto al chilo

oltretutto i parametri (il signal) per la "kill list" sono
sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al
famosissimo problema del "individua _statisticamente_ lo sporco X", con
il risultato che spesso succede che ricade nella definizione un
significativo sottoinsieme del genere umano, senza manco essere "sporco
X"

[...]

> 1) mi sembra tanto una storia volta a distaccare i militari dalla
> partecipazione al genocidio. Una sorta di pallottola a salve usata dal
> plotone di esecuzione

interessante: potrebbe essere sì; una specie di "obbedivo agli
ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI
gli ordini se li dava da sola"

> 2) mi sembra pubblicità gratuita all'industria militare, che certamente
> vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso
> dell'AI per applicazioni militari è tenuto escluso da ogni
> regolamentazione

ma perché l'uso di altro software per applicazioni militari come è
incluso in qualche regolamentazione?

cioè: l'uso di software per applicazioni militari in che modo dovrebbe
essere regolamentato?

...se già NON si riesce a far applicare la regolamentazione di ben altre
cose (tipo i genocidi), quando si fanno le guerre?!?

tra l'altro, faccio sommessamente notare che purtroppo ci sono
sofisticate (sofistiche?!?) discussioni ad altissimi livelli
intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1]
piuttosto che crimine di guerra [2], oppure legittima lotta al
terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo
qui perché passerei nel penale.

> ¹ 
> https://twitter.com/_vecna/status/1776317177135874371<https://eu-west-1.protection.sophos.com?d=twitter.com&u=aHR0cHM6Ly90d2l0dGVyLmNvbS9fdmVjbmEvc3RhdHVzLzE3NzYzMTcxNzcxMzU4NzQzNzE=&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Z3E1NGk1alpPYjNNUVBsTVEvT3gzUS9GMVhIUVp1b2FmVEl4bHBOWVlXST0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>

La riporto ai fini archivistici:

--8<---------------cut here---------------start------------->8---

Claudio Agosti @_vecna

In addition to that (the responsibility is not being transferred to the
AI to absolve the human user), I would like to debunk a false narrative
that involves AI and whether it is important for us as consumers of
AI. 🧵

  Paul Biggar 🇵🇸🇮🇪
  @paulbiggar

  Correct me if I'm wrong, but in occupied territory, you can't kill
  militants off the battle field, even if you identify them
  correctly. So every kill by Lavender/Where's Daddy is a war crime?

--8<---------------cut here---------------end--------------->8---

[...]

[1] 
https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_Unite<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvR2Vub2NpZGlvI0RlZmluaXppb25lX3VmZmljaWFsZV9kZWxsZV9OYXppb25pX1VuaXRl&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=YkREa2dwZVoyYnphTUovVVAvQkVNVTV3TSs1c0JISG5aTTJIdld5ckYxOD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>

[2] 
https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvQ3JpbWluZV9kaV9ndWVycmEjTGFfbGVnaXNsYXppb25l&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=RmJlc05STS85OU4wVHBVNDdEMmhDVFNhZG5oNFNSNjYwS3BWTkRDRktJMD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>

--
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about < 
https://stallmansupport.org<https://eu-west-1.protection.sophos.com?d=stallmansupport.org&u=aHR0cHM6Ly9zdGFsbG1hbnN1cHBvcnQub3Jn&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Q3hWanBvU28vR3oySWxwYTVkTE16dFpEYjlMekRLRWE3eHd6Qm5kNmVWcz0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>>.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://eu-west-1.protection.sophos.com?d=polito.it&u=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE=&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=cWFFS0o0Y1lWM0p6Q3Y2MElMYzQrMUowelVLNElPaHN0NFFDSHorWWJqST0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to