Grazie Giulio, Il 8 Aprile 2023 07:59:53 UTC, de petra giulio ha scritto: >Intervistato e intervistatore entrambi nexiani > >https://centroriformastato.it/non-ce-crisi-tecnologica-nella-silicon-valley/
Ottima analisi economico-finanziaria, perfettamente complementare all'analisi cibernetica (e dunque politica, storica e culturale) che potrebbe offrire, ad esempio, un hacker. Ad esempio, ad un'analisi cibernetica, non sarebbe sfuggito un'altra funzione fondamentale dei tanti licenziamenti recenti: il messaggio forte e chiaro ai lavoratori che dovessero anche solo pensare di aderire ai nascenti movimenti sindacali fra le Big Tech. Sindacati come Alphabet Workers Union o Amazon Labor Union, sono ancora interamente ed inevitabilmente influenzati dalla cultura pseudo-futurista e proto-fascista che caratterizza le loro aziende e la loro propaganda sulle magnifiche sorti e progressive. [1] Ma nonostante questo, nonostante la strutturale debolezza che tale cultura rappresenta per qualsiasi speranza di syn dike, di stare insieme con giustizia, la loro stessa esistenza terrorizza le persone che stano a capo di queste aziende. E' un terrore atavico che Robert Noyce, co-fondatore di Intel, sintetizzo magistralmente ben prima della nascita dei GAFAM: "remaining non-union is an essential for survival for most of our companies. If we had the work rules that unionized companies have, we'd all go out of business. This is a very high priority for management here. We have to retain flexibility in operating our companies. The great hope for our nation is to avoid those deep, deep divisions between workers and management which can paralyze action." [2] Anche Noyce si curava di non menzionare un conflitto fra capitalisti e lavoratori, ma parla di "divisioni fra lavoratori e management", usando come proxy verso i lavoratori, altri lavoratori (i manager) premiati con migliori remunerazioni proprio per il loro allineamento alla politica di chi l'azienda la possiede. Da una prospettiva cibernetica, queste migliaia di licenziamenti hanno dunque una funzione evidente: inviare a tutti i lavoratori presenti e futuri un messaggio forte e chiaro, un messaggio intimidatorio "non pensateci nemmeno! o perderete il vostro lavoro". Si tratta di un messaggio broadcast che avrà una forte influenza sull'evoluzione della società cibernetica globale in cui queste aziende operano. Ma che ovviamente risulta invisibile ad una prospettiva meramente economico-finanziaria. Splendido poi l'esempio emblematico posto da Stefano in conclusione: ``` Giulio De Petra: Auspichi un CERN della IA che renda disponibile alle aziende quantità di dati e capacità di calcolo adeguati. Ma anche le applicazioni della IA avranno conseguenze sociali? Stefano Quintarelli: Ti rispondo con un esempio. Se tu sei un medico e usi un sistema di intelligenza artificiale per fare una diagnosi e sei in disaccordo con quello che ti suggerisce il sistema hai comunque un incentivo a uniformarti alla diagnosi del sistema, perché se poi il tuo paziente muore puoi dire che anche il sistema di IA aveva confermato la tua analisi. Viceversa, se tu, essendo in disaccordo col sistema, privilegi la tua opinione e non confermi la diagnosi della IA, e poi il paziente muore per la tua diagnosi sbagliata, ti imputeranno di aver perseverato nella tua idea anche se il sistema aveva formulato una diagnosi diversa. Questo è un incentivo a diminuire la centralità umana nella decisione. E in alcuni ambiti questo può essere pericoloso. Come si fa a diminuire questa conseguenza sociale negativa nell’uso della IA? Bisogna progettare il sistema in modo tale che, quando formula una predizione, ogni tanto, casualmente, la predizione viene cambiata di segno. In questo modo, nel nostro esempio, il medico sa che non si può più fidare del sistema di IA. La macchina può fare il 90% del lavoro, ma poi sei tu che devi prendere una decisione, perché è sicuro che la macchina potrebbe anche dirti il falso. ``` L'esempio è straordinariamente azzeccato per indicare le conseguenze fatali che l'alienazione cibernetica può avere su individui e società. Evidenzia chiaramente la funzione di capro espiatorio dello "human in the loop" [3] la cui funzione consiste essenzialmente nello schermare gli "humans behind the machine" da qualsiasi responsabilità legale per i danni prodotti, venduti come "esternalità negative inevitabili". Evidenzia anche chiaramente la trappola cognitiva in cui si trova chi interpreta l'output prodotti da software programmati statisticamente [4] come "diagnosi" o come "decisioni". Quello che Stefano descrive come "un incentivo a uniformarti alla diagnosi del sistema" è in realtà uno strumento di alienazione cibernetica che agisce ancor prima dell'interazione con il software: il medico che interpreti come "diagnosi" l'output di un simile software è già alienato ed è già inadeguato a lavorare come medico. Ma d'altro canto, il software che produca come output qualcosa di anche lontanamente interpretabile come diagnosi (o ancor peggio, come suggerimento terapeutico) è progettato per alienare medico, paziente, familiari del paziente morto, magistratura e società tutta, riducendo i gradi di libertà del sistema e rendendo prevedibile la sua evoluzione, affinché minimizzi i rischi e le responsabilità per i proprietari dell'azienda che lo distribuisce. Senza considerare, ovviamente, che le risorse necessarie per eseguire software programmati statisticamente come è già GPT4 e saranno i suoi futuri sfidanti, rendono tali sistemi inevitabilmente centralizzati (tanto che Stefano auspica appunto un "CERN dell'IA" per dotare anche l'Europa del proprio ChatGPT) Tale centralizzazione li rente inevitabilmente single point of failure non solo in termini strategico militari, ma in termini cibernetici: sarà sufficiente alterare alla bisogna la programmazione di uno di questi "generatori di diagnosi mediche" per far sterminare a inconsapevoli "medici in the loop" intere popolazioni. Senza che nessuno se ne accorga. L'esempio finale di Stefano è però illuminante anche perché mostra i limiti inevitabili della prospettiva economica-finanziaria a cavallo del cambio di paradigma in corso. A fronte di un sistema tecnologico strutturalmente dannoso e che nessuno ci obbliga ad adottare o permettere, la soluzione proposta è, di nuovo, ingenuamente tecnologica. Basta che "ogni tanto, casualmente, la predizione viene cambiata di segno". E' questo un limite strutturale ed invalicabile dei modelli economici: la riduzione di qualsiasi sistema ad un valore scalare, un numero cui possiamo, eventualmente, cambiare di segno. Tutta la complessità multidimensionale della medicina, che deve tener conto della realtà del paziente, delle sue risorse cognitive nel seguire la terapia (e talvolta persino nell'accettare la malattia come tale, che si tratti di una psicosi o di un tumore), delle sue possibilità economiche, del supporto sociale e familiare che può o non può sostenerlo, delle interazioni fra farmaci che in quello specifico paziente si sono verificate in passato etc.. etc.. etc.. viene ridotta ad una "diagnosi" cui è possibile cambiare di segno. Ok, cambiamo di segno al vettore in output. Ma rispetto a quale delle decine di dimensioni rilevanti per quello specifico paziente e di cui un buon medico tiene conto ogni giorno? E come sapremo, dopo la morte del paziente, se il medico che ha confermato la "diagnosi" del software, si è trovato di fronte un output cambiato di segno? Lo chiediamo alla società produttrice? :-D L'enorme complessità del reale è comprensibile per informatici (o quanto meno per hacker, ovvero cittadini cibernetici) abituati a sviluppare e debuggare sistemi estremamente complessi che gestiscono processi complessi di cui non si possono permettere di ridurre la dimensionalità ad uno scalare. Questo costituisce certamente un vantaggio cognitivo, ma si trasforma rapidamente in una sorta di maledizione di Cassandra. Come rendere consapevoli dei limiti di un modello persone in buona fede che credono fermamente nella sua adeguatezza ad un mondo totalmente diverso da quello in cui tale modello è stato realizzato? Ai ragazzi io suggerisco di contare gli agenti cibernetici in esecuzione sul proprio cellulare e di appuntare, di ciascuno, i permessi categorizzandoli in sensori ed attuatori. Poi suggerisco di fare particolare attenzione al permesso di accedere alla rete, per valutare se il controllore dell'agente in questione sia effettivamente sul cellulare, o si trovi presso server di terzi. E ovviamente, oltre alle App di cui sono consapevoli, chiedo di fare lo stesso lavoro con tutte quelle di sistema. Si rendono rapidamente conto di portarsi in tasca oltre 3-400 agenti cibernetici, per la maggioranza etero guidati, che ne sorvegliano ogni azione e che condizionano attenzione e comportamenti. Ma con gli adulti è più complesso. Dopo decenni di egemonia culturale del capitalismo iper-liberista statunitense, la riduzione di tutto a scalari è penetrata in profondità nelle menti delle persone. Come uscirne? Come riprendere consapevolezza della complessità del reale? Come trasformare l'homo economicus in cittadino cibernetico? Come riprenderci la storia, la politica e la cultura reimparando tutti insieme a concepire una realtà multidimensionale complessa non più riducibile a prezzo e costo, domande e offerta, lavoro e capitale? Basterà imparare TUTTI a programmare, partecipando a quel complesso dibattito pubblico eseguibile su scala planetaria che è lo sviluppo del software libero? Basterà imparare TUTTI ad usare i computer per quello che sono, ovvero specchi per la mente umana che li programma? Tutto questo è tragicamente necessario, ma sarà sufficiente? Giacomo [1]: sempre in una prospettiva cibernetica, basta guardare al logo scelto da Alphabet Workers Union per rilevare quanto marginale sia l'uomo rispetto alle macchine (che lo compenetrano letteralmente nella mano che le impugna) https://upload.wikimedia.org/wikipedia/en/f/f3/Alphabet_Workers_Union_Logo_-_Fist%2C_Scope%2C_Text_%28black%2C_raster%2C_bg%29.png [2]: http://dbacon.igc.org/Unions/04hitec2.htm [3]: alcuni esempi concreti di questo fenomeno narrativo, effettivamente accaduti, sono riportati nell'ottimo articolo di Daniela Tafani https://commentbfp.sp.unipi.it/letica-come-specchietto-per-le-allodole/ cui mi sento di aggiungere, per la drammaticità delle conseguenze, l'omicidio di Elaine Herzberg da parte di Uber nel 2018, la cui responsabilità è stata scaricata sul povero passeggero, Rafaela Vasquez, le cui inevitabili distrazioni erano ovviamente già state osservate e misurate da Uber durante le corse precedenti: https://en.wikipedia.org/wiki/Death_of_Elaine_Herzberg [4]: output che di per sé non hanno nemmeno una semantica probabilistica ma sono approssimazioni grossolane delle relazioni fra le probabilità di proposizioni selezionate da chi ha programmato quel software. selezione che di per sé stessa riduce enormemente lo spazio di possibilità del reale secondo i bias e gli interessi di chi effettua la programmazione statistica.Ottima analisi economica, complementare all'analisi cibernetica (e dunque
politica, storica e culturale) che potrei offrire io.
Splendido l'esempio emblematico posto da Stefano in conclusione:
```
GIulio: Auspichi un CERN della IA che renda disponibile alle aziende quantità di dati e capacità di calcolo adeguati. Ma anche le applicazioni della IA avranno conseguenze sociali?
Stefano: Ti rispondo con un esempio. Se tu sei un medico e usi un sistema di intelligenza artificiale per fare una diagnosi e sei in disaccordo con quello che ti suggerisce il sistema hai comunque un incentivo a uniformarti alla diagnosi del sistema, perché se poi il tuo paziente muore puoi dire che anche il sistema di IA aveva confermato la tua analisi. Viceversa, se tu, essendo in disaccordo col sistema, privilegi la tua opinione e non confermi la diagnosi della IA, e poi il paziente muore per la tua diagnosi sbagliata, ti imputeranno di aver perseverato nella tua idea anche se il sistema aveva formulato una diagnosi diversa. Questo è un incentivo a diminuire la centralità umana nella decisione. E in alcuni ambiti questo può essere pericoloso. Come si fa a diminuire questa conseguenza sociale negativa nell’uso della IA? Bisogna progettare il sistema in modo tale che, quando formula una predizione, ogni tanto, casualmente, la predizione viene cambiata di segno.
In questo modo, nel nostro esempio, il medico sa che non si può più fidare del sistema di IA. La macchina può fare il 90% del lavoro, ma poi sei tu che devi prendere una decisione, perché è sicuro che la macchina potrebbe anche dirti il falso.
```
L'esempio è straordinariamente azzeccato per indicare le conseguenze fatali che
l'alienazione cibernetica potrebbe avere
Il 8 Aprile 2023 07:59:53 UTC, de petra giulio <giulio.depe...@gmail.com> ha scritto:
Intervistato e intervistatore entrambi nexiani
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa