Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa
sul Manifesto:

| migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti
israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale*

Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe
non essere corretta, ma mi sembra che questa formulazione alimenti un
'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in
questi tempi

L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera
'interpretazioni' dei dati di input nella forma di distribuzioni di
probabilità sull'alfabeto dei simboli di output. Nella costruzione e
nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono
decisioni cruciali da prendere, ma sono tutte umane:.
1) come costruire la funzione di interpretazione
2) come valutare la sua adeguatezza
3) come usarla in pratica

Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi
colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il
benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi
sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non
c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo?

A me sembra che in questo caso l'AI sia stata arruolata in una operazione
di propaganda: usiamo una AI molto accurata per minimizzare le
'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da
'ethic washing' per i soldati che (in 20 secondi) devono decidere se
premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota
a margine: sembra che l'unica euristica supplementare sia quella di non
sparare sulle donne: ben strano che un classificatore così accurato non sia
in grado di discriminare questa 'feature').

Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di
massa. Molta attenzione si sta dirigendo verso la 'torsione militare'
dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto
tale, piuttosto che criticare le decisioni umane che sono alla base di
certi suoi specifici impieghi.

Altri hanno fatto giustamente osservare che tutta l'informatica
novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP
finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo
che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po'
quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla
base della falsa coscienza, sia collettiva, sia soggettiva.

G.

[1] Joseph Gabel, La falsa coscienza
https://edizionidedalo.it/1136-la-falsa-coscienza.html

On Sat, 6 Apr 2024 at 14:47, 380° <g...@biscuolo.net> wrote:

> Buongiorno Claudio,
>
> Claudio Agosti <claudio.ago...@hermescenter.org> writes:
>
> [...]
>
> > Nel thread, mi sembra stiate considerando il prodotto come
> > l'innovazione,
>
> non capisco da cosa lo deduci, forse sarebbe più efficace se citassi
> qualche passo che ti fa sembrare così...
>
> forse sarebbe più efficace non usare il "top posting"? ;-)
>
> [...]
>
> > Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il
> > famoso "we kill based on metadata", alla fine sono stime,
> approssimazione,
> > e un misto di signal e human intelligence che va a creare la kill
> > list.
>
> dici bene, avevo i tuoi stessi argomenti sulla punta della lingua:
> grazie per averli espressi così chiaramente e in modo efficacemente
> sintetico!
>
> > Ma specialmente non c'è nessun incentivo a non commettere errori. Non
> > c'è una possibile misurazione del successo, e le stime date nel pezzo
> > (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti,
> > sparando una bomba mentre dorme con la sua famiglia?) sono solo volte
> > a de-umanizzare le vittime. Non sono stime tollerabili da una corte,
> > da un programmatore, da un politico.
>
> ma soprattutto, con tutte queste informazioni in merito al contesto, che
> cavolo di differenza fa se la bomba la spara un drone in modo
> completamente automatico perché l'attuatore è controllato direttamente
> da una "AI" o se la spara un drone in modo completamente "manuale"
> perché l'attuatore è comandato da un militare in carne ed ossa, magari a
> 500Km di distanza?
>
> tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un
> tanto al chilo
>
> oltretutto i parametri (il signal) per la "kill list" sono
> sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al
> famosissimo problema del "individua _statisticamente_ lo sporco X", con
> il risultato che spesso succede che ricade nella definizione un
> significativo sottoinsieme del genere umano, senza manco essere "sporco
> X"
>
> [...]
>
> > 1) mi sembra tanto una storia volta a distaccare i militari dalla
> > partecipazione al genocidio. Una sorta di pallottola a salve usata dal
> > plotone di esecuzione
>
> interessante: potrebbe essere sì; una specie di "obbedivo agli
> ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI
> gli ordini se li dava da sola"
>
> > 2) mi sembra pubblicità gratuita all'industria militare, che certamente
> > vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso
> > dell'AI per applicazioni militari è tenuto escluso da ogni
> > regolamentazione
>
> ma perché l'uso di altro software per applicazioni militari come è
> incluso in qualche regolamentazione?
>
> cioè: l'uso di software per applicazioni militari in che modo dovrebbe
> essere regolamentato?
>
> ...se già NON si riesce a far applicare la regolamentazione di ben altre
> cose (tipo i genocidi), quando si fanno le guerre?!?
>
> tra l'altro, faccio sommessamente notare che purtroppo ci sono
> sofisticate (sofistiche?!?) discussioni ad altissimi livelli
> intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1]
> piuttosto che crimine di guerra [2], oppure legittima lotta al
> terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo
> qui perché passerei nel penale.
>
> > ¹ https://twitter.com/_vecna/status/1776317177135874371
>
> La riporto ai fini archivistici:
>
> --8<---------------cut here---------------start------------->8---
>
> Claudio Agosti @_vecna
>
> In addition to that (the responsibility is not being transferred to the
> AI to absolve the human user), I would like to debunk a false narrative
> that involves AI and whether it is important for us as consumers of
> AI. 🧵
>
>   Paul Biggar 🇵🇸🇮🇪
>   @paulbiggar
>
>   Correct me if I'm wrong, but in occupied territory, you can't kill
>   militants off the battle field, even if you identify them
>   correctly. So every kill by Lavender/Where's Daddy is a war crime?
>
> --8<---------------cut here---------------end--------------->8---
>
> [...]
>
> [1]
> https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_Unite
>
> [2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
>  non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to