Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-27 Thread 380°
Caro Giacomo,

Giacomo Tesio  writes:

> Ciao 380°,
>
> On Fri, Apr 21, 2023 at 05:43:41PM +0200, 380° wrote:
>> Deciding is a computational activity, something that can ultimately be
>> programmed. Choice, however, is the product of judgment, not
>> calculation.
>> [...]
>> Siccome nel linguaggio naturale il significato delle parole
>> dipende... da un sacco di cose, per amor di brevità, in _questo_
>> contesto potremmo /scegliere/ di attribuire a ciascun termine una e una
>> sola delle definizioni disponibili oggi sul Merriam Webster:
>> 
>> - "decide": 1.b to select as a course of action —used with an infinitive
>> 
>> - "choose": 1.a to select freely and after consideration
>
> Interessante distinzione che evidenzia come io non sia stato chiaro.

O forse io non sono stato chiaro?

Le definizioni che ho scritto sopra sono due tra quelle possibili, non
sono io che faccio una distinzione, è il Merriam Webster.

Non sono io che ho scritto "Deciding is a computational activity", anche
se lo condivido.

Anche nelle neuroscienze e in psicologia ci sono trattati che /fanno
distinzione/ tra il processo di decisione e di scelta... la differenza è
che il primo può essere automatizzato (che è una scelta .).

> Riprovo:
>
> - decidere è un'azione uomana.
> - segliere anche.
>
> sono azioni diverse, ma entrambe umane.

La decisione può essere guidata attraverso l'applicazione di linee
guida, protocolli, ecc. fino ad arrivare alla definizione di algoritmi
(che applicano /protocolli/) che eventualmente sfociano in sviluppo di
software DSS [1] (decision support system) o ADM [2] (automated
decision-making).

Concedere o meno l'accesso attraverso un "tornello automatico", tipo
quelli delle metropolitane milanesi o dei caselli automatici
autostradali, è una decisione totalmente automatizzata... decidere di
installare un sistema controllo accessi automatizzato è una scelta [3].

...anche un filtro della posta elettronica è un sistema di decisione
automatizzato.

Da molto tempo ci sono diversi sistemi ADM poco controversi, ultimamente
ce ne sono un sacco /estremamente/ controversi.

L'art. 22 del GDPR si intitola «Processo decisionale automatizzato
relativo alle persone fisiche, compresa la profilazione»

L'ICO UK parla di "automated individual decision-making" e lo definisce
così:

--8<---cut here---start->8---

Automated decision-making is the process of making a decision by
automated means without any human involvement. These decisions can be
based on factual data, as well as on digitally created profiles or
inferred data. Examples of this include:

- an online decision to award a loan; and

- an aptitude test used for recruitment which uses pre-programmed
  algorithms and criteria.

Automated decision-making often involves profiling, but it does not have
to.

--8<---cut here---end--->8---

[...]

> L'interpretazione dell'output è SEMPRE un atto politico.
> E deve essere responsabile e consapevole.

L'atto politico è scegliere di usare sistemi di decisione automatizzata,
il cui output determina un "course of action" prestabilito.

L'atto politico è l'identificazione "senza se e senza ma" delle persone
con i dati che chi ha potere sceglie debbano rappresentarli.

L'atto politico è scegliere che i sistemi di decisione automatizzata
possano essere delle "black box" i cui meccanismi non sono pubblici.

L'atto politico è scegliere di usare software binario (IA inclusa) senza
pretendere che l'intero processo di build sia trasparente, riproducibile
*e* bootstrappable.

L'atto politico è scegliere di ignorare tutte le cose che ho scritto
sopra.

[...]

>> Possiamo anche perdonarci a vicenda per l'uso improprio di certe
>> definizioni, 

[...]

> Non è questione di perdono, né di ambiguità linguistica: è questione 
> di usare un linguaggio alienante o meno.
>
> Insisto sull'inadeguatezza di certi termini

Insisto sull'invito a non limitarci (andare oltre?) alle etichette e sul
perdono a vicenda :-D

[...]

Ciao, 380°



[1] https://en.wikipedia.org/wiki/Decision_support_system

[2] https://en.wikipedia.org/wiki/Automated_decision-making

[3] l'ultima volta che sono stato a Berlino non era necessario lassare
per un tornello automatico per accedere alla metropolitana e mi pare che
storicamente sia sempre stato così

[4] 
https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/automated-decision-making-and-profiling/what-is-automated-individual-decision-making-and-profiling/#id2


-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about .


signature.asc
Description: PGP signature
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-n

Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-27 Thread karlessi

Ciao,

certo, la questione è ampia e complessa, e l'oscurità parecchia

con l'obiettivo di far luce a modo nostro, abbiamo appena pubblicato 
qualche riflessione sulle cosiddette "IA" qui 
https://mondodigitale.aicanet.net/2023-1/ARTICOLI/02_AI-automazione_Milani.pdf


ad ogni modo, non sono interessato a difendere a spada tratta 
l'espressione "esseri tecnici", che (purtroppo) non ho inventato, ma ho 
mutuato dal filosofo della tecnica Gilbert Simondon, introdotta AFAIK 
nel 1958 "Du mode d'existence des objets techniques". Il testo è un po' 
complicato e poteva essere scritto in maniera più potabile. Più 
abbordabile e piacevole invece la raccolta "Sur la technique", in 
italiano https://www.orthotes.com/sulla-tecnica/


da Simondon ho preso anche l'espressione "alienazione tecnica": 
l'hacking che mi interessa consiste appunto in attività che mirano alla 
riduzione dell'alienazione tecnica.


di questa e altre espressioni si può discutere: però non solo dal punto 
di vista dell'informatica, la tecnicità è più vasta!, e d'altra parte 
questa come altre espressioni possono anche essere "improprie", ma non è 
questo il punto.


il punto che riguarda l'"oscurità digitale" provocata ad arte per me è 
in primo luogo *smettere di colpevolizzare le persone, "comuni" o meno, 
per il loro presunto "cattivo uso" di tecnologie tossiche, strutturate 
ad arte per favorire oscurità ecc.*


è questo il problema più grave, a livello di attitudine e comportamento, 
da cui derivano tutti gli altri. non riguarda solo i ragazz*


è l'analogo di colpevolizzare la persona che lascia aperta l'acqua del 
rubinetto mentre si lava i denti perché spreca l'acqua. Certo, potrebbe 
recuperarla e annaffiare le piante assetate. Ottima idea. Ma, immersi in 
società sempre più industrializzate che spingono l'acceleratore sulla 
produzione, gli armamenti, ecc. ovvero verso i ecodisastri che ancora ci 
aspettano, concentrarsi su questi aspetti è come guardare il dito e non 
vedere la luna. Non è questo il punto, appunto!


Il punto dell'oscurità digitale, dell'oscurantismo digitale, è che la 
tecnologia derivante dalla ricerca scientifica non deve per forza andare 
nella direzione di concentrazione e omologazione tossica in cui sta 
andando. Non è inevitabile. Non è scritto da nessuna parte, perché 
l'evoluzione è in corso, e non è predeterminata.


Perciò rispondere con un classicissimo "studiate il codice!" quando 
parliamo di codice chiuso e di milioni di righe di codice (senz'altro 
vale per le piattaforme social media, in parte anche per i modelli dei 
LLM) tende a rafforzare la sensazione di impotenza e a schiacciare 
l'immaginazione delle persone. Non è sbagliato, intendiamoci; ma non è 
questo il punto. Anche perché *conoscere* non significa per forza essere 
in grado di agire altrimenti: altrimenti la libertà, il libero arbitrio 
ecc. sarebbero una conseguenza automatica della conoscenza, il che non è.


Perciò, con attitudine hacker, invitiamo a smontare le black box in un 
altro modo, che non nega altre possibilità; cerchiamo di capire come 
influiscono sul comportamento umano, come re-agiscono con le nostre 
vulnerabilità e come averci a che fare, se possibile, senza farsi troppo 
male. L'esercizio della voce del demone serve a questo. Non sarà 
filosoficamente ortodosso, ma a noi piace, è un gioco di libertà e 
immaginazione, e d'altra parte la filosofia di un qualche interesse non 
è mai ortodossa :D


Siamo d'accordo sul fatto che l'interazione con questi complessi sistemi 
NON dipende SOLO dagli esseri umani, e dal loro "uso"? Siamo d'accordo 
sul fatto che vengono resi volutamente complicati, ambivalenti, 
ingannevoli, manipolatori? L'oscurità IMHO si infittisce se si sostiene 
che dipende solo da come vengono usati, e che solo persone poco accorte, 
che non conoscono il codice, possono cascarci e "usarle male".


Un esempio: coder che hanno programmato gli algoritmi che fanno girare 
le slot machines, messi davanti alle slot machines, tendono a rimanere 
presi dalla loro trappola. I pungoli al sistema dopaminergico (nucleo 
accumbens) tendono a essere predominanti sulla riflessività (corteccia 
frontale), dipende da come è fatto il cervello umano. *Conoscere* è 
importante ma a volte insufficiente e, anzi, foriero di false sicurezze. 
(l'esempio è di Natasha Dow Schüll, Addiction by design, 
https://press.princeton.edu/books/paperback/9780691160887/addiction-by-design 
)


Al tempo stesso, è importante insegnare la gentilezza, in generale, e 
nel "digitale" ancora di più. Al di là delle leggi. Il fatto che una 
pietra (come una macchina, se volete) sia insensibile, è IRRILEVANTE. 
Rilevante è invece che sensazioni ed emozioni fluiscono fra gli esseri 
viventi, fra cui gli esseri umani, e ne strutturano i comportamenti; gli 
esseri non viventi, fra cui le macchine, stanno fra gli esseri viventi, 
in mezzo a loro. Crudeltà e violenza si ripercuotono sull'umano, ergo 
razionalmente sono da evitarsi. Questa è l'argomentazion

Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-27 Thread M. Fioretti
On Thu, Apr 27, 2023 11:37:55 AM +0200, karlessi wrote:

> il punto che riguarda l'"oscurità digitale" provocata ad arte per me
> è in primo luogo *smettere di colpevolizzare le persone, "comuni" o
> meno, per il loro presunto "cattivo uso" di tecnologie tossiche,
> strutturate ad arte per favorire oscurità ecc.*
> ...
> è questo il problema più grave, a livello di attitudine e
> comportamento, da cui derivano tutti gli altri...
> ...
> ...rispondere con un classicissimo "studiate il codice!" quando
> parliamo di codice chiuso e di milioni di righe di codice
> (senz'altro vale per le piattaforme social media, in parte anche per
> i modelli dei LLM) tende a rafforzare la sensazione di impotenza e a
> schiacciare l'immaginazione delle persone. Non è sbagliato,
> intendiamoci; ma non è questo il punto. Anche perché *conoscere* non
> significa per forza essere in grado di agire altrimenti: altrimenti
> la libertà, il libero arbitrio ecc. sarebbero una conseguenza
> automatica della conoscenza, il che non è.

Giusto per completezza, nel caso dei social media, e in tanti altri,
studiare a memoria il codice potrebbe non bastare nemmeno in teoria,
senza avere anche tutti i dati che effettivamente elabora. E "studiare
il codice" e' inutile anche parlando di voto elettronico, per le
stesse ragioni.

Ma grazie! Meno male che anche qualcun altro le dice chiaramente, queste
cose, che dovrebbero valere sempre.

  Marco
-- 
La mia newsletter per una maggiore consapevolezza digitale:
https://mfioretti.substack.com
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa