Carissimi,
condivido quanto più volte sottolineato da diverse persone in lista
riassunto da Enrico: "non ci sono strumenti e loro usi la responsabilità
dei quali non sia riconducibile ad esseri umani".
Mi pare possa essere il punto di partenza per evidenziare due aspetti
critici attorno alle parole "responsabilità"e "umano", comparsi in vari
interventi, che mi permetto di sintetizzare e discutere, sperando di
contribuire alla ricerca di un discorso condiviso tra le posizioni
opposte che vanno evidenziandosi.
1) L'umanizzazione della macchina.
Spesso leggiamo che "la tecnologia X fa Y a Z" e non che "/tizio/ usa X
per fare Y a Z.": questo linguaggio ostacola la attribuzione di
responsabilità.
Se vengo investito da un'auto, non dirò che la tecnologia
automobilistica è responsabile del mio investimento, ma che sono stato
investito perché tizio non ha rispettato il codice della strada, o che
il costruttore ha progettato male la tal parte, o che la segnaletica era
carente, ecc...
L'oggetto di per se non è responsabile di nulla, ma i vari attori che
costruiscono l'ecosistema del suo impiego lo sono: chi
progetta/programma/vende/impiega, ciascuno per la parte di azione
compiuta attraverso la macchina che gli compete.
Se al contrario attribuiamo /alla tecnologia/ una data azione,
deresponsabilizziamo questi attori, schivando la vera difficoltà che
risiede nell'identificare e ripartire i profili di responsabilità tra loro.
Il rendere intenzionalmente antropomorfa ('autonoma', 'intelligente'), o
sfruttare l'inclinazione umana di considerare come tale qualsiasi
tecnologia equivale a un esplicito tentativo di fuga dalla propria
responsabilità, inducendo a credere che esista un /soggetto/ che di
fatto non esiste come tale.
L'industria del software ha sempre sfuggito tale responsabilità (vedasi
i vari /standard disclaimers/ e l'argomento del "tech exceptionalism").
All'aumentare degli effetti sul mondo, chi progetta e vende queste
tecnologie non può esimersi dal considerarsi in una ragionevole misura
responsabile dei possibili impieghi di ciò che costruisce.
Il che naturalmente porta anche a riflettere su cosa i vari attori di
una determinata industria fanno collettivamente al resto della società.
Mentre nel caso della mobilità ciò mi pare avvenga, nel caso delle ICT
fatichiamo ancora a rendercene conto, nonostante le molteplici evidenze.
2) La reificazione (macchinizzazione) dell'umano
Parliamo di dati, di dati personali, di trattamento, ma perdiamo di
vista che stiamo parlando, in primo luogo ed in ultima istanza, sempre
di /persone/.
Dimentichiamo anche che gli attori che automatizzano la produzione
linguistica sono gli stessi che compongono l'ecosistema dell'industria
della sorveglianza, che usano l'esperienza umana come materia prima
(S.Zuboff) per mettere sul mercato prodotti e servizi atti a
condizionare altro comportamento umano, dalla pubblicità ai voti,
secondo dun modello brutalmente skinneriano.
E' logico aspettarsi che questi attori impieghino l'automazione della
lingua per monetizzare analogamente gli stessi dati e la lingua stessa,
vendendo ai propri clienti i comportamenti basati su determinati usi
della lingua, basandoli sulla conoscenza estratta da testi messi a
disposizione da altri utenti inconsapevoli di questi nuovi impieghi, che
non hanno mai espressamente consentito all'uso della propria competenza
linguistica a tali scopi.
Questo business model basato sulla appropriazione dei contenuti messi
online dagli utenti è contrastato solo dalle leggi sulla privacy (e il
copyright?) che in buona parte si applicano a contesti in cui dati
personali vengono condivisi per scopi specifici che non includono il
training dei modelli statistici. Ancora una volta il far west? Le colonie?
Ciò che va contestato è il diritto di appropriazione auto-attribuitosi
da tali imprese all'uso dell'esperienza umana come se si trattasse di
dati meteorologici o contabili, e l'uso del comportamento umano come mezzo.
Le imprese di cui parliamo (come molte altre, del resto) vendono
comportamenti umani, sfruttano i lavoratori, inibiscono la
sindacalizzazione, non pagano le tasse, fuggono dalle loro
responsabilità, mirano al monopolio, si inchinano a regimi autoritari e
manipolano o mentono a quelli democratici, e tutto questo non
incidentalmente, ma seguendo una presa di posizione ideologica in molti
casi coordinata. Queste accuse sono passate in questa stessa lista in
questi anni e comunque sono coerenti con i comportamenti di analoghe
imprese in altri ambiti industriali (fossile, tabacco).
Se si trattasse di persone, non esiteremmo a considerarle sociopatiche.
Dare loro il potere di influenzare la lingua, che è ciò che regge
letteralmente la società, non può che dar loro un altra enorme fetta di
potere. E' ciò che vogliamo?
Esempio grossolano: se un nostro governo richiedesse (anche pagando) la
produzione algoritmica di testi che favorisca il "voi" al posto del
"lei" non violerebbe né la legge né la grammatica, né il GDPR, ma i
testi generati automaticamente cambierebbero progressivamente anche la
lingua parlata.
A queste imprese, e a chi lavora per loro direttamente o indirettamente,
va detto: "Fermiamoci! Riflettiamo!".
Dato che l'ambiente in cui operano è la lingua, e che la lingua è quanto
di più umano ci sia, qual è la valutazione di impatto di un GPT*? Qual è
il principio di precauzionalità usato?
Queste due criticità diventano due fallacie del ragionamento, per cui da
una parte demonizziamo le tecnologie invece di concentrarci sulla
responsabilità delle imprese, dall'altra ammettiamo che quelli umani
siano dati come gli altri e che l'esperienza umana e la società possa
continuare ad essere una miniera da sfruttare industrialmente. Così
accettiamo l'eccezionalismo IT e ammettiamo l'uso dell'umano come mezzo.
L'industrializzazione del linguaggio, come ogni altro processo
industriale non regolato, non può che degradare l'ambiente che tocca.
Il modello culturale su cui si basa l'attuale 'progresso' è quello sul
quale si sono basati molti dei progressi industriali precedenti: senza
negarne i benefici, dobbiamo riconoscere che hanno comportato la
svalutazione e lo sfruttamento della persona umana e la fuga dalle
responsabilità.
Per una volta, cerchiamo di evitare il percorso passato e non aspettiamo
i danni ambientali e umani per regolare. Fermiamoci e facciamolo subito.
Non invochiamo la scienza e il progresso per giustificare avidità di
denaro e potere, come è avvenuto con imperialismo, colonialismo, schiavismo.
Il progresso vero è assumersi la responsabilità, non 'move fast and
break things'.
La vasta polemica attorno agli LLM, che segue quella di Cambridge
Analytica, quella sul riconoscimento facciale e molte altre riuscirà
finalmente a rendere chi produce software responsabile in qualche misura
di ciò che fa e rispettare le persone?
Forse no, dovremo attendere un altro passo, mi azzardo a prevedere che
forse sarà l'applicazione degli LLM alla produzione di oggetti, di cui
anticipo un episodio:
GPT9000: Cosa posso fare per te?
Io: Vorrei costruire una automobile a tre posti e sei ruote di cui
due anteriori e quattro motrici, con motore elettrico e pannelli solari.
GPT9000: Certo ci sono molti progetti di automobili sui quali ho
elaborato quello che cerchi. Avrai bisogno di una stampante 3d e di
alcuni componenti che puoi trovare online. Troverai l'elenco dei
negozi in cui comprare il tutto in area download, assieme al
progetto e ai brevetti consultati: non dimenticarti di pagare le
fees e di far omologare il veicolo nel tuo paese.
IO: Wow, grazie. Avrei anche bisogno di una macchina per far
scodinzolare i cani.
GPT9000: Ho trovato solo un progetto in un vecchio libro francese ma
dovrebbe andare bene. In compenso non ci sono fees per i brevetti da
pagare.
IO: Grazie. Avrei anche bisogno di una macchina del tempo.
GPT9000: Sono spiacente, non ho progetti affidabili per una macchina
del tempo, ma se ti interessa posso fornirti i progetti per una
macchina per la criogenia, che alcuni considerano un efficace mezzo
per viaggiare nel futuro. Devo metterti però in guardia: non è stata
testata estesamente per questo scopo e non si può tornare al presente.
IO: Fantastico! La voglio. Servono permessi?
GPT9000: Dalle informazioni in mio possesso nel tuo paese la
criogenesi non è regolata espressamente.
IO: Benone! Cosa può andare storto?
GPT9000: Mi spiace, solo solo un agente software, non posso fare
previsioni su cosa può accadere se usi una macchina per la criogenia
non testata per viaggiare nel futuro. Buona fortuna!
...
Ciao,
Alberto
On 16/04/23 13:07, Enrico Nardelli wrote:
Grazie Marco, molto bello!
La riflessione finale
«This is all an old story, though: It reminds us that many of the bad
uses of AI are a reflection of humanity more than they are a
reflection of AI technology itself. »
sottolinea ancora una volta che non ci sono strumenti e loro usi la
responsabilità dei quali non sia riconducibile ad esseri umani (punto
che Giacomo Tesio giustissimamente enfatizza sempre).
Ciao, Enrico
Il 11/04/2023 10:02, Marco A. Calamari ha scritto:
Un interessante saggio di Bruce Schneier sugli usi criminali e
manipolatori degli LLM,
che dovrebbe farci scendere ogni tanto dai ragionamenti troppo
filosofici a quelli più pratici.
Consigliato.
https://www.schneier.com/blog/archives/2023/04/llms-and-phishing.html
Marco
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa