Ciao Karlessi,
ripercorro anche io le tue risposte (giacché sono, in effetti, risposte)
per metterle a confronto con quelle che darei io.
On 20.04.2023 11:01, karlessi wrote:
Date: Wed, 19 Apr 2023 23:51:15 +0200
* 1 *
il digitale incide oppure no in modo significativo sul nostro modo di
essere umani?
Ci fornisce oppure no "informazioni" che influenzano scelte finora
autonome?
A volte "decide" oppure no al nostro posto?
sì, "decide".
no, non decide.
il software calcola.
ripete pedissequamente, meccanicamente, la propria programmazione.
che tale programmazione sia ignota (per ragioni di licenza o per
inadeguatezza delle tecniche di programmazione adottate) è irrilevante.
il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel
proprio programma. anche quando modifica la propria configurazione
(che come osservava 380° in passato, è semplicemente una parte della
programmazione differita rispetto alla compilazione del binario), in
funzione dell'input ricevuto, tale variazione è predeterminata.
e di nuovo, il fatto che tale determinazione sia o pretenda di essere
irresponsabile, è totalmente irrilevante rispetto al fatto che sussista.
quand'anche un software fosse connesso ad una sorgente randomica in
grado
di alterarne la configurazione per simulare una sorta di libero
arbitrio,
la forma della configurazione stessa e la sua interpretazione da parte
del programma sarebbe comunque predeterminato.
dunque "il digitale" non decide. MAI.
Siamo sempre noi che interpretiamo il suo output.
Talvolta, in evidente stato confusionale, lo interpretiamo come
"decisione"
ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena
responsabilità, perché siamo noi ad interpretare l'output.
ma come non esiste l'autonomia umana assoluta (sarebbe
solipsismo psicotico), così "il digitale" non decide "al posto"
nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso
che promuove attivamente determinate visioni del mondo perché
re-agisce (ciberneticamente, retroattivamente) con vulnerabilità
umane, zone sensibili personali e collettive di cui è importante avere
consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati
dalle interfacce, sensibilità personali, abitudini culturali, ecc.).
No, non decide "il digitale", ma chi lo programma e lo integra nella
società cibernetica, distribuendolo, eseguendolo etc...
In termini poetici e filosofici, i sistemi tecnici contemporanei hanno
delle "voci", cioè dei demoni socratici che le muovono, e che
evolvono. queste voci "spingono" (nudge, gamification) gli umani a
reagire in un certo modo. OVVIAMENTE si può: resistere; imparare;
smontare e rimontare; rifiutare; limitare la manipolazione; usare in
maniera difforme (ma implica maggior sforzo); evolvere diversamente;
ecc ecc
Mi correggeranno i filosofi in lista, ma ho sempre inteso il demone di
Socrate come la sua Coscienza, qualcosa che agli automatismi manca.
Infatti, se non erro, Socrate diceva che il suo demone lo dissuadeva
dal fare ciò che stava per fare, ma non gli imponeva mai di fare
qualcosa.
Il software non è una "voce interiore" dell'automatismo che lo incita
a resistere ai propri impulsi.
Il software determina completamente e precisamente ciò che l'automatismo
farà e ciò che non farà. E di conseguenza, determina completamente gli
effetti che avrà sull'ecosistema in cui viene introdotto e sulle persone
con cui interagirà.
però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè
non dipende solo dall'uso. I sistemi tecnici hanno affordances, che
sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore
di una certa visione del mondo, con certe idee-cardine" (che possono
cambiare nel tempo)
Non dipende affatto dall'uso, perché l'uso stesso è pre-determinato.
Gli hacker sono in grado di alterare il funzionamento di tali artefatti
perché ne comprendono il funzionamento tanto da smontarli e rimontarli
in modo diverso.
Ma alla fine dell'hack, l'automatismo continuerà a ripetere
pedissequamente
la volontà di chi l'ha programmato (in questo caso, l'hacker).
un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera
a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video.
Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi:
https://web.archive.org/web/20230418000009/https://www.youtube.com/
https://web.archive.org/web/20050614234128/http://www.youtube.com/
nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella
prima, del 2023, è scomparsa. ciò mostra che la voce del demone di
Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in
maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a
limitare gli stati di flusso in cui si interagisce "senza decidere" :D
Bell'esempio, pessima interpretazione. :-)
YouTube non è "evoluto": è stato sostituito con una nuova versione.
E' un software, non ha una identità.
GOOGLE, che lo realizza e amministra, decide cosa l'utente (terribile
riduzione della persona umana) possa o non possa fare.
E decide con quale probabilità e frequenza.
Così come deciderà chi vedrà i video caricati.
Oltre ovviamente a decidere che video vedrà la maggioranza delle
persone,
quali diventeranno virali etc...
YouTube, in sé, non esiste.
Durante i continui A/B test, persone diverse usano software diversi.
Attribuirgli un'identità è di per sé alienante.
E' una cosa: un artefatto costruito dall'uomo per scopi precisi.
Ogni artefatto può essere utile.
Ma a nessuno va attribuita alcuna dignità intrinseca.
Per questo parlare di "intelligenza artificiale", "macchine cognitive"
(come fa Enrico Nardelli nel suo ottimo libro) o anche solo
"esseri tecnici" è pericolosamente alienante!
Sono cose. Solo cose.
Se le trattiamo come qualcosa di diverso, se gli attribuiamo una
qualsiasi
dignità, sottraiamo inevitabilmente tale dignità all'uomo.
Un software è un testo che può determinare il comportamento di una
macchina.
Niente di più.
Devo poterlo smembrare e rimontare senza ritegno o rispetto.
Il rispetto, la dignità, è solo per le persone, non per l'artefatto.
Quelle che l'hanno scritto e che lo modificheranno, così come quelle
che lo eseguiranno. Ma non per l'artefatto.
Se non funziona, si cancella o si "martella"... è una cosa insomma.
Come artefatto, il suo unico criterio di valore è l'utilità.
Criterio che non va mai applicato alle persone.
* 2 *
la possibilità di "leggere il programma" è opportuna / necessaria?
IMHO è importante poter comprendere a grandi linee come funziona il
programma e poter intervenire in quello svolgimento. se non
direttamente, attraverso gli occhi e le competenze di qualcuno di cui
ci fidiamo.
Io direi fondamentale.
In una società cibernetica in cui il rapporto numerico fra esseri umani
ed automatismi è di uno a 3-400 (contando solo gli automatismi in
esecuzione
su un comune cellulare android), si potrebbe argomentare che sia persino
più importante di saper leggere e scrivere una lingua umana.
Ma sarebbe un argomento alienante! ;-)
Infatti, sono esseri umani a realizzare e controllare quegli
automatismi!
Invece è fondamentale saper programmare e debuggare gli automatismi che
ci
circondano esattamente quanto è importante saper leggere, scrivere e far
di conto.
Chi non imparerà a farlo, si troverà nostro malgrado ad essere un
cittadino
di serie B nella società cibernetica in cui viviamo.
E ciò renderà tale società oppressiva ed alienante per tutti.
Ed ovviamente non democratica.
Per questo, la terza via democratica allo sviluppo tecnologico che
l'Europa
DEVE intraprendere, deve essere focalizzata sulla realizzazione di
tecnologie
perfettamente comprensibili e debuggabili da qualsiasi cittadino.
E sull'educazione informatica e cibernetica di tutti i cittadini.
Bisogna lavorare su entrambi i fronti, insomma.
Da un lato sostituire la tecnologia oppressiva del presente con una più
democratica,
dall'altro educare la cittadinanza affinché possa averne il pieno
controllo.
esempio assai istituzionale:
https://nextcloud.eucommeet.eu
è un H2020 di cui curiamo la parte tecnica. perché far la fatica di
utilizzare una VM su OpenStack del GARR invece che un AWS o Azure
public cloud? perché avvalersi di un accrocchio nextcloud + jitsi
invece che M$ Teams, Google Suite, ecc.? si fa fatica, anche perché
poi gli utenti si lamentano che "è più difficile da usare di Zoom, di
google docs!"
Di nuovo, ottimo esempio ma analisi insufficiente.
Perché è più difficile? Perché è meno integrato? Perché si fa più
fatica?
Non perché è open source (o GDPR compliant) ma perché questi software
hanno
ricevuto una frazione irrisoria degli investimenti effettuati sulle
alternative proprietarie.
E molti dei soldi di quegli investimenti vengono dalle tasse dei
cittadini
di tutto il mondo, sottratti alla pubblica amministrazione (ed
all'economia
di quei paesi) tramite evasione^W "ottimizzazione" fiscale, pratiche
commerciali scorrette, da cattura culturale e spesso da vera e propria
corruzione:
https://www.reuters.com/article/us-microsoft-settlement-idUSKCN1UH1P3
https://www.theverge.com/2022/3/25/22995144/microsoft-foreign-corrupt-practices-bribery-whistleblower-contracting
Se il software libero ha dei problemi, basta investire qualche migliaio
di euro all'anno e finanziarne più seriamente lo sviluppo.
(qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare
non è la preoccupazione principale dei progetti europei!)
Sì sembra che i diritti umani non godano di grande considerazione in
questo periodo.
Vedono visti come un fastidioso intralcio. Anche da esseri umani!
L'alienazione cibernetica è a livelli impensabili solo pochi anni fa.
C'è da sperare di poter recuperare tutte queste persone!
Ma la disintossicazione non è mai facile. E spesso è dolorosa.
però continuo a pensare che sia meglio del software proprietario.
soprattutto perché è possibile sviluppare una relazione alla pari con
chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato
di chi è venuto prima di noi.
così come è possibile sviluppare una relazione alla pari,
istituzionalmente e umanamente parlando, con le persone che stanno
dietro alle macchine del GARR, e, in caso di problemi e necessità,
chiedere a loro. Non è lo stesso tipo di relazione che si può
sviluppare con Amazon, Google o Microsoft.
Vero.
E' una questione di relazioni tra PERSONE.
(i computer sono meri specchi... ;-)
è una questione di scalabilità federata umani-macchine, non di completa
leggibilità/controllo del programma, IMHO.
La completa leggibilità del programma è condizione necessaria, non
sufficiente.
Infatti molto codice opensource è reso scientemente complicato, per
vanificare
le libertà formalmente garantite dalla licenza (tipicamente permissiva).
Ad OGGI, l'informatica è intrinsecamente elitaria e classista.
E' progettata per massimizzare la concentrazione del potere, nelle sue
varie forme.
Per questo appare impensabile che tutti possano dominarla.
Ed è questa la controproposta che è stata definita "oscurantista" da
Giuseppe
perché alternativa alla ricerca di un'alternativa all'uomo.
Perché cercare di simulare l'intelligenza umana in una macchina in modo
talmente
realistico da ingannare chi ne comprende il funzionamento, investendo
miliardi
di euro in una ridicola allucinazione collettiva a metà fra hubris
da "costruiamoci un vitello d'oro e adoriamolo" e animismo?
Non sarebbe meglio invece investire gli stessi soldi per creare
strumenti
informatici in grado di emancipare le persone?
Sistemi operativi, linguaggi di programmazione, software vari in grado
di
essere letti e compresi completamente da chiunque abbia finito la scuola
dell'obbligo.
Per quanto possa sembrare costoso, sarà comunque una frazione
infinitesimale
dei soldi necessari a "vincere" una gara alla ricerca della singolarità
oppressiva!
* 3 *
aiuterebbe un eventuale obbligo di "nessuna profilazione di default"?
"nessuna profilazione di default" sarebbe bello, ma, forse, molte
persone lo troverebbero scomodo, proprio come trovano scomodo che il
browser non abbia lo storico della navigazione in sessione anonima...
Lo trovano scomodo perché il browser e il Web sono progettato per
farglielo
trovare scomodo. DEVONO trovare la privacy scomoda, anche quella poca
(pochissima)
fornita dalla navigazione anonima.
Non è un problema tecnico o culturale, è una scelta POLITICA!
Una scelta presa in modo anti-democratico e applicata alle persone
tramite
gli "esseri tecnici" che ne diventano attuatori, mascherando
completamente
i veri responsabili di tale scelta POLITICA.
l'automazione è una questione rilevante, capire chi, come e perché
promuove
certe automazioni invece di altre è forse ancora più rilevante.
Perfettamente d'accordo.
Ragion per cui è FONDAMENTALE trattare gli automatismi come cose prive
di identità o dignità alcuna, ma estensioni della volontà di chi li
costruisce e li mette in opera.
SEMPRE.
Che si chiamino Google Chrome, Office 365, Android, Classroom o ChatGPT.
Ricordando sempre la domanda fondamentale della cibernetica: cui
prodest?
Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa