Sul tema della fallibilità di ogni tipo di soluzione che voglia
discriminare i meritevoli di aiuto da i non meritevoli e che voglia
decidere per loro di ciò di cui "veramente" hanno bisogno, che sia in
maniera automatica o manuale, segnalo questo recente articolo:

«Get rid of food banks and give people money instead, new report
says»: 
https://www.cbc.ca/news/canada/newfoundland-labrador/food-charity-report-1.6877417

Il giorno lun 26 giu 2023 alle ore 14:28 Antonio Vetro'
<antonio.ve...@polito.it> ha scritto:
>
> Anni fa si era espresso anche il rapporteur delle Nazioni Unite (dell’epoca) 
> su povertà estrema e diritti umani , parlando di “human rights free zone"
> https://algorithmwatch.org/en/un-special-rapporteur-on-digital-technology-and-social-protection-denounces-a-human-rights-free-zone/
> https://www.theguardian.com/technology/2019/oct/16/digital-welfare-state-big-tech-allowed-to-target-and-surveil-the-poor-un-warns
>
> Qui il report originale
> https://documents-dds-ny.un.org/doc/UNDOC/GEN/N19/312/13/PDF/N1931213.pdf?OpenElement
>
> Un caro saluto
> Antonio
>
>
>
> Il giorno 26 giu 2023, alle ore 13:58, Daniela Tafani 
> <daniela.taf...@unipi.it> ha scritto:
>
> Buongiorno.
>
> Grazie della segnalazione.
> Si tratta di sistemi che non funzionano e che danneggiano infallibilmente i 
> soggetti più deboli:
> lo dimostrano, ormai, analisi e documentazioni sterminate.
>
> Considerato che soggetti pubblici e privati sono comunque determinati a 
> utilizzarli,
> magrado l'evidenza dei loro effetti,
> credo sia opportuno rendere esplicite le ragioni di tali scelte e la loro 
> connotazione politica.
>
> Me ne sto occupando in questo periodo: vi sarò grata, perciò, di qualsiasi 
> riflessione
> o segnalazione bibliografica.
>
> Un saluto,
> Daniela
> ________________________________
> Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Antonio Vetro' 
> <antonio.ve...@polito.it>
> Inviato: lunedì 26 giugno 2023 11:59
> A: mailing list nexa
> Oggetto: [nexa] Automated Neglect: how The World Bank’s Push to Allocate Cash 
> Assistance Using Algorithms Threatens Rights
>
> Fenomeno in linea con alcune implementazioni di welfare 
> “automatizzato/ottimizzato" in USA e Europa
> (cfr casi descritti in libro automating inequalities, i vari casi in Olanda, 
> sistema AMS in Austria, ecc.).
>
> Automated Neglect: How The World Bank’s Push to Allocate Cash Assistance 
> Using Algorithms Threatens Rights
>
> Abstract:
> Governments worldwide are turning to automation to help them deliver 
> essential public services, such as food, housing, and cash assistance. But 
> some forms of automation are excluding people from services and singling them 
> out for investigation based on errors, discriminatory criteria, or 
> stereotypes about poverty. Despite these harms, the allure of tech-based 
> solutions to complex social problems is proving hard to resist.
>
> The World Bank is one of the biggest development actors driving this trend, 
> particularly in the Global South, placing big bets on data-intensive 
> technologies to help governments deliver services. This includes major cash 
> transfer programs that give certain individuals or families financial 
> support. In the Middle East and North Africa alone, eight of ten borrowing 
> countries have received Bank loans to upgrade these programs.
>
> Report completo su 
> https://www.hrw.org/report/2023/06/13/automated-neglect/how-world-banks-push-allocate-cash-assistance-using-algorithms
>
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to