Grazie Giulio,

Il 8 Aprile 2023 07:59:53 UTC, de petra giulio ha scritto:
>Intervistato e intervistatore entrambi nexiani
>
>https://centroriformastato.it/non-ce-crisi-tecnologica-nella-silicon-valley/

Ottima analisi economico-finanziaria, perfettamente complementare
all'analisi cibernetica (e dunque politica, storica e culturale) che
potrebbe offrire, ad esempio, un hacker.


Ad esempio, ad un'analisi cibernetica, non sarebbe sfuggito un'altra
funzione fondamentale dei tanti licenziamenti recenti: il messaggio
forte e chiaro ai lavoratori che dovessero anche solo pensare di
aderire ai nascenti movimenti sindacali fra le Big Tech.

Sindacati come Alphabet Workers Union o Amazon Labor Union, sono 
ancora interamente ed inevitabilmente influenzati dalla cultura
pseudo-futurista e proto-fascista che caratterizza le loro aziende
e la loro propaganda sulle magnifiche sorti e progressive. [1]

Ma nonostante questo, nonostante la strutturale debolezza che tale
cultura rappresenta per qualsiasi speranza di syn dike, di stare insieme
con giustizia, la loro stessa esistenza terrorizza le persone che stano
a capo di queste aziende.

E' un terrore atavico che Robert Noyce, co-fondatore di Intel,
sintetizzo magistralmente ben prima della nascita dei GAFAM:
"remaining non-union is an essential for survival for most of our
companies. If we had the work rules that unionized companies have, 
we'd all go out of business. This is a very high priority for 
management here. We have to retain flexibility in operating our
companies. The great hope for our nation is to avoid those deep, 
deep divisions between workers and management which can paralyze
action." [2]

Anche Noyce si curava di non menzionare un conflitto fra capitalisti e
lavoratori, ma parla di "divisioni fra lavoratori e management", 
usando come proxy verso i lavoratori, altri lavoratori (i manager)
premiati con migliori remunerazioni proprio per il loro allineamento
alla politica di chi l'azienda la possiede.

Da una prospettiva cibernetica, queste migliaia di licenziamenti 
hanno dunque una funzione evidente: inviare a tutti i lavoratori
presenti e futuri un messaggio forte e chiaro, un messaggio
intimidatorio "non pensateci nemmeno! o perderete il vostro lavoro".

Si tratta di un messaggio broadcast che avrà una forte influenza
sull'evoluzione della società cibernetica globale in cui queste 
aziende operano.

Ma che ovviamente risulta invisibile ad una prospettiva meramente
economico-finanziaria.


Splendido poi l'esempio emblematico posto da Stefano in conclusione:

```
Giulio De Petra:
Auspichi un CERN della IA che renda disponibile alle aziende
quantità di dati e capacità di calcolo adeguati. Ma anche le
applicazioni della IA avranno conseguenze sociali?

Stefano Quintarelli:
Ti rispondo con un esempio. Se tu sei un medico e usi un
sistema di intelligenza artificiale per fare una diagnosi e sei in
disaccordo con quello che ti suggerisce il sistema hai comunque un
incentivo a uniformarti alla diagnosi del sistema, perché se poi il tuo
paziente muore puoi dire che anche il sistema di IA aveva confermato la
tua analisi. Viceversa, se tu, essendo in disaccordo col sistema,
privilegi la tua opinione e non confermi la diagnosi della IA, e poi il
paziente muore per la tua diagnosi sbagliata, ti imputeranno di aver
perseverato nella tua idea anche se il sistema aveva formulato una
diagnosi diversa. Questo è un incentivo a diminuire la centralità umana
nella decisione. E in alcuni ambiti questo può essere pericoloso. Come
si fa a diminuire questa conseguenza sociale negativa nell’uso della
IA? Bisogna progettare il sistema in modo tale che, quando formula una
predizione, ogni tanto, casualmente, la predizione viene cambiata di
segno.

In questo modo, nel nostro esempio, il medico sa che non si può più
fidare del sistema di IA. La macchina può fare il 90% del lavoro, ma
poi sei tu che devi prendere una decisione, perché è sicuro che la
macchina potrebbe anche dirti il falso.

```

L'esempio è straordinariamente azzeccato per indicare le conseguenze
fatali che l'alienazione cibernetica può avere su individui e società.

Evidenzia chiaramente la funzione di capro espiatorio dello "human in
the loop" [3] la cui funzione consiste essenzialmente nello schermare
gli "humans behind the machine" da qualsiasi responsabilità legale
per i danni prodotti, venduti come "esternalità negative inevitabili".

Evidenzia anche chiaramente la trappola cognitiva in cui si trova chi
interpreta l'output prodotti da software programmati statisticamente [4]
come "diagnosi" o come "decisioni".

Quello che Stefano descrive come "un incentivo a uniformarti alla
diagnosi del sistema" è in realtà uno strumento di alienazione
cibernetica che agisce ancor prima dell'interazione con il software:
il medico che interpreti come "diagnosi" l'output di un simile software
è già alienato ed è già inadeguato a lavorare come medico.

Ma d'altro canto, il software che produca come output qualcosa di anche
lontanamente interpretabile come diagnosi (o ancor peggio, come
suggerimento terapeutico) è progettato per alienare medico, paziente,
familiari del paziente morto, magistratura e società tutta, riducendo 
i gradi di libertà del sistema e rendendo prevedibile la sua
evoluzione, affinché minimizzi i rischi e le responsabilità 
per i proprietari dell'azienda che lo distribuisce.


Senza considerare, ovviamente, che le risorse necessarie per eseguire
software programmati statisticamente come è già GPT4 e saranno i suoi
futuri sfidanti, rendono tali sistemi inevitabilmente centralizzati
(tanto che Stefano auspica appunto un "CERN dell'IA" per dotare anche
l'Europa del proprio ChatGPT)

Tale centralizzazione li rente inevitabilmente single point of failure
non solo in termini strategico militari, ma in termini cibernetici:
sarà sufficiente alterare alla bisogna la programmazione di uno di
questi "generatori di diagnosi mediche" per far sterminare a
inconsapevoli "medici in the loop" intere popolazioni.
Senza che nessuno se ne accorga.


L'esempio finale di Stefano è però illuminante anche perché mostra i
limiti inevitabili della prospettiva economica-finanziaria a cavallo
del cambio di paradigma in corso.

A fronte di un sistema tecnologico strutturalmente dannoso e che
nessuno ci obbliga ad adottare o permettere, la soluzione proposta è, 
di nuovo, ingenuamente tecnologica.

Basta che "ogni tanto, casualmente, la predizione viene cambiata di
segno".

E' questo un limite strutturale ed invalicabile dei modelli economici:
la riduzione di qualsiasi sistema ad un valore scalare, un numero cui
possiamo, eventualmente, cambiare di segno.

Tutta la complessità multidimensionale della medicina, che deve tener
conto della realtà del paziente, delle sue risorse cognitive nel
seguire la terapia (e talvolta persino nell'accettare la malattia come
tale, che si tratti di una psicosi o di un tumore), delle sue
possibilità economiche, del supporto sociale e familiare che può 
o non può sostenerlo, delle interazioni fra farmaci che in quello
specifico paziente si sono verificate in passato etc.. etc.. etc..
viene ridotta ad una "diagnosi" cui è possibile cambiare di segno.

Ok, cambiamo di segno al vettore in output.
Ma rispetto a quale delle decine di dimensioni rilevanti per quello
specifico paziente e di cui un buon medico tiene conto ogni giorno?

E come sapremo, dopo la morte del paziente, se il medico che ha
confermato la "diagnosi" del software, si è trovato di fronte un 
output cambiato di segno? 
Lo chiediamo alla società produttrice? :-D


L'enorme complessità del reale è comprensibile per informatici 
(o quanto meno per hacker, ovvero cittadini cibernetici) abituati
a sviluppare e debuggare sistemi estremamente complessi che gestiscono
processi complessi di cui non si possono permettere di ridurre la
dimensionalità ad uno scalare. 

Questo costituisce certamente un vantaggio cognitivo, ma si trasforma
rapidamente in una sorta di maledizione di Cassandra.


Come rendere consapevoli dei limiti di un modello persone in buona fede
che credono fermamente nella sua adeguatezza ad un mondo totalmente
diverso da quello in cui tale modello è stato realizzato?

Ai ragazzi io suggerisco di contare gli agenti cibernetici in
esecuzione sul proprio cellulare e di appuntare, di ciascuno, i
permessi categorizzandoli in sensori ed attuatori.
Poi suggerisco di fare particolare attenzione al permesso di accedere
alla rete, per valutare se il controllore dell'agente in questione sia
effettivamente sul cellulare, o si trovi presso server di terzi.

E ovviamente, oltre alle App di cui sono consapevoli, chiedo di fare lo
stesso lavoro con tutte quelle di sistema.

Si rendono rapidamente conto di portarsi in tasca oltre 3-400 agenti
cibernetici, per la maggioranza etero guidati, che ne sorvegliano ogni
azione e che condizionano attenzione e comportamenti.


Ma con gli adulti è più complesso.

Dopo decenni di egemonia culturale del capitalismo iper-liberista
statunitense, la riduzione di tutto a scalari è penetrata in profondità
nelle menti delle persone.


Come uscirne?

Come riprendere consapevolezza della complessità del reale?

Come trasformare l'homo economicus in cittadino cibernetico?

Come riprenderci la storia, la politica e la cultura reimparando tutti
insieme a concepire una realtà multidimensionale complessa non più
riducibile a prezzo e costo, domande e offerta, lavoro e capitale?



Basterà imparare TUTTI a programmare, partecipando a quel complesso
dibattito pubblico eseguibile su scala planetaria che è lo sviluppo del
software libero?

Basterà imparare TUTTI ad usare i computer per quello che sono, ovvero
specchi per la mente umana che li programma?


Tutto questo è tragicamente necessario, ma sarà sufficiente?


Giacomo

[1]: sempre in una prospettiva cibernetica, basta guardare al logo
     scelto da Alphabet Workers Union per rilevare quanto marginale sia
     l'uomo rispetto alle macchine (che lo compenetrano letteralmente
     nella mano che le impugna)
     
https://upload.wikimedia.org/wikipedia/en/f/f3/Alphabet_Workers_Union_Logo_-_Fist%2C_Scope%2C_Text_%28black%2C_raster%2C_bg%29.png

[2]: http://dbacon.igc.org/Unions/04hitec2.htm

[3]: alcuni esempi concreti di questo fenomeno narrativo, effettivamente
     accaduti, sono riportati nell'ottimo articolo di Daniela Tafani
     https://commentbfp.sp.unipi.it/letica-come-specchietto-per-le-allodole/
     cui mi sento di aggiungere, per la drammaticità delle conseguenze,
     l'omicidio di Elaine Herzberg da parte di Uber nel 2018, la cui
     responsabilità è stata scaricata sul povero passeggero, Rafaela
     Vasquez, le cui inevitabili distrazioni erano ovviamente già state
     osservate e misurate da Uber durante le corse precedenti:
     https://en.wikipedia.org/wiki/Death_of_Elaine_Herzberg

[4]: output che di per sé non hanno nemmeno una semantica
     probabilistica ma sono approssimazioni grossolane delle relazioni 
     fra le probabilità di proposizioni selezionate da chi ha
     programmato quel software. 
     selezione che di per sé stessa riduce enormemente lo spazio
     di possibilità del reale secondo i bias e gli interessi 
     di chi effettua la programmazione statistica.

Ottima analisi economica, complementare all'analisi cibernetica (e dunque
politica, storica e culturale) che potrei offrire io.

Splendido l'esempio emblematico posto da Stefano in conclusione:

```
GIulio: Auspichi un CERN della IA che renda disponibile alle aziende quantità di dati e capacità di calcolo adeguati. Ma anche le applicazioni della IA avranno conseguenze sociali?

Stefano: Ti rispondo con un esempio. Se tu sei un medico e usi un sistema di intelligenza artificiale per fare una diagnosi e sei in disaccordo con quello che ti suggerisce il sistema hai comunque un incentivo a uniformarti alla diagnosi del sistema, perché se poi il tuo paziente muore puoi dire che anche il sistema di IA aveva confermato la tua analisi. Viceversa, se tu, essendo in disaccordo col sistema, privilegi la tua opinione e non confermi la diagnosi della IA, e poi il paziente muore per la tua diagnosi sbagliata, ti imputeranno di aver perseverato nella tua idea anche se il sistema aveva formulato una diagnosi diversa. Questo è un incentivo a diminuire la centralità umana nella decisione. E in alcuni ambiti questo può essere pericoloso. Come si fa a diminuire questa conseguenza sociale negativa nell’uso della IA? Bisogna progettare il sistema in modo tale che, quando formula una predizione, ogni tanto, casualmente, la predizione viene cambiata di segno.

In questo modo, nel nostro esempio, il medico sa che non si può più fidare del sistema di IA. La macchina può fare il 90% del lavoro, ma poi sei tu che devi prendere una decisione, perché è sicuro che la macchina potrebbe anche dirti il falso.

```

L'esempio è straordinariamente azzeccato per indicare le conseguenze fatali che
l'alienazione cibernetica potrebbe avere
Il 8 Aprile 2023 07:59:53 UTC, de petra giulio <giulio.depe...@gmail.com> ha scritto:
Intervistato e intervistatore entrambi nexiani

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to