Carissimi,

condivido quanto più volte sottolineato da diverse persone in lista riassunto da Enrico: "non ci sono strumenti e loro usi la responsabilità dei quali non sia riconducibile ad esseri umani".

Mi pare possa essere il punto di partenza per evidenziare due aspetti critici attorno alle parole "responsabilità"e "umano", comparsi in vari interventi, che mi permetto di sintetizzare e discutere, sperando di contribuire alla ricerca di un discorso condiviso tra le posizioni opposte che vanno evidenziandosi.


1) L'umanizzazione della macchina.

Spesso leggiamo che "la tecnologia X fa Y a Z" e non che "/tizio/ usa X per fare Y a Z.": questo linguaggio ostacola la attribuzione di responsabilità.

Se vengo investito da un'auto, non dirò che la tecnologia automobilistica è responsabile del mio investimento, ma che sono stato investito perché tizio non ha rispettato il codice della strada, o che il costruttore ha progettato male la tal parte, o che la segnaletica era carente, ecc...

L'oggetto di per se non è responsabile di nulla, ma i vari attori che costruiscono l'ecosistema del suo impiego lo sono: chi progetta/programma/vende/impiega, ciascuno per la parte di azione compiuta attraverso la macchina che gli compete.

Se al contrario attribuiamo /alla tecnologia/ una data azione, deresponsabilizziamo questi attori, schivando la vera difficoltà che risiede nell'identificare e ripartire i profili di responsabilità tra loro.

Il rendere intenzionalmente antropomorfa ('autonoma', 'intelligente'), o sfruttare l'inclinazione umana di considerare come tale qualsiasi tecnologia equivale a un esplicito tentativo di fuga dalla propria responsabilità, inducendo a credere che esista un /soggetto/ che di fatto non esiste come tale.

L'industria del software ha sempre sfuggito tale responsabilità (vedasi i vari /standard disclaimers/ e l'argomento del "tech exceptionalism").

All'aumentare degli effetti sul mondo, chi progetta e vende queste tecnologie non può esimersi dal considerarsi in una ragionevole misura responsabile dei possibili impieghi di ciò che costruisce.

Il che naturalmente porta anche a riflettere su cosa i vari attori di una determinata industria fanno collettivamente al resto della società. Mentre nel caso della mobilità ciò mi pare avvenga, nel caso delle ICT fatichiamo ancora a rendercene conto, nonostante le molteplici evidenze.


2) La reificazione (macchinizzazione) dell'umano

Parliamo di dati, di dati personali, di trattamento, ma perdiamo di vista che stiamo parlando, in primo luogo ed in ultima istanza, sempre di /persone/.

Dimentichiamo anche che gli attori che automatizzano la produzione linguistica sono gli stessi che compongono l'ecosistema dell'industria della sorveglianza, che usano l'esperienza umana come materia prima (S.Zuboff) per mettere sul mercato prodotti e servizi atti a condizionare altro comportamento umano, dalla pubblicità ai voti, secondo dun modello brutalmente skinneriano.

E' logico aspettarsi che questi attori impieghino l'automazione della lingua per monetizzare analogamente gli stessi dati e la lingua stessa, vendendo ai propri clienti i comportamenti basati su determinati usi della lingua, basandoli sulla conoscenza estratta da testi messi a disposizione da altri utenti inconsapevoli di questi nuovi impieghi, che non hanno mai espressamente consentito all'uso della propria competenza linguistica a tali scopi.

Questo business model basato sulla appropriazione dei contenuti messi online dagli utenti è contrastato solo dalle leggi sulla privacy (e il copyright?) che in buona parte si applicano a contesti in cui dati personali vengono condivisi per scopi specifici che non includono il training dei modelli statistici. Ancora una volta il far west? Le colonie?

Ciò che va contestato è il diritto di appropriazione auto-attribuitosi da tali imprese all'uso dell'esperienza umana come se si trattasse di dati meteorologici o contabili, e l'uso del comportamento umano come mezzo.

Le imprese di cui parliamo (come molte altre, del resto) vendono comportamenti umani, sfruttano i lavoratori, inibiscono la sindacalizzazione, non pagano le tasse, fuggono dalle loro responsabilità, mirano al monopolio, si inchinano a regimi autoritari e manipolano o mentono a quelli democratici, e tutto questo non incidentalmente, ma seguendo una presa di posizione ideologica in molti casi coordinata. Queste accuse sono passate in questa stessa lista in questi anni e comunque sono coerenti con i comportamenti di analoghe imprese in altri ambiti industriali (fossile, tabacco).

Se si trattasse di persone, non esiteremmo a considerarle sociopatiche.

Dare loro il potere di influenzare la lingua, che è ciò che regge letteralmente la società, non può che dar loro un altra enorme fetta di potere. E' ciò che vogliamo?

Esempio grossolano: se un nostro governo richiedesse (anche pagando) la produzione algoritmica di testi che favorisca il "voi" al posto del "lei" non violerebbe né la legge né la grammatica, né il GDPR, ma i testi generati automaticamente cambierebbero progressivamente anche la lingua parlata.

A queste imprese, e a chi lavora per loro direttamente o indirettamente, va detto: "Fermiamoci! Riflettiamo!".

Dato che l'ambiente in cui operano è la lingua, e che la lingua è quanto di più umano ci sia, qual è la valutazione di impatto di un GPT*? Qual è il principio di precauzionalità usato?


Queste due criticità diventano due fallacie del ragionamento, per cui da una parte demonizziamo le tecnologie invece di concentrarci sulla responsabilità delle imprese, dall'altra ammettiamo che quelli umani siano dati come gli altri e che l'esperienza umana e la società possa continuare ad essere una miniera da sfruttare industrialmente. Così accettiamo l'eccezionalismo IT e ammettiamo l'uso dell'umano come mezzo.

L'industrializzazione del linguaggio, come ogni altro processo industriale non regolato, non può che degradare l'ambiente che tocca.

Il modello culturale su cui si basa l'attuale 'progresso' è quello sul quale si sono basati molti dei progressi industriali precedenti: senza negarne i benefici, dobbiamo riconoscere che hanno comportato la svalutazione e lo sfruttamento della persona umana e la fuga dalle responsabilità.

Per una volta, cerchiamo di evitare il percorso passato e non aspettiamo i danni ambientali e umani per regolare. Fermiamoci e facciamolo subito. Non invochiamo la scienza e il progresso per giustificare avidità di denaro e potere, come è avvenuto con imperialismo, colonialismo, schiavismo. Il progresso vero è assumersi la responsabilità, non 'move fast and break things'.


La vasta polemica attorno agli LLM, che segue quella di Cambridge Analytica, quella sul riconoscimento facciale e molte altre riuscirà finalmente a rendere chi produce software responsabile in qualche misura di ciò che fa e rispettare le persone?

Forse no, dovremo attendere un altro passo, mi azzardo a prevedere che forse sarà l'applicazione degli LLM alla produzione di oggetti, di cui anticipo un episodio:

   GPT9000: Cosa posso fare per te?

   Io: Vorrei costruire una automobile a tre posti e sei ruote di cui
   due anteriori e quattro motrici, con motore elettrico e pannelli solari.

   GPT9000: Certo ci sono molti progetti di automobili sui quali ho
   elaborato quello che cerchi. Avrai bisogno di una stampante 3d e di
   alcuni componenti che puoi trovare online. Troverai l'elenco dei
   negozi in cui comprare il tutto in area download, assieme al
   progetto e ai brevetti consultati: non dimenticarti di pagare le
   fees e di far omologare il veicolo nel tuo paese.

   IO: Wow, grazie. Avrei anche bisogno di una macchina per far
   scodinzolare i cani.

   GPT9000: Ho trovato solo un progetto in un vecchio libro francese ma
   dovrebbe andare bene. In compenso non ci sono fees per i brevetti da
   pagare.

   IO: Grazie. Avrei anche bisogno di una macchina del tempo.

   GPT9000: Sono spiacente, non ho progetti affidabili per una macchina
   del tempo, ma se ti interessa posso fornirti i progetti per una
   macchina per la criogenia, che alcuni considerano un efficace mezzo
   per viaggiare nel futuro. Devo metterti però in guardia: non è stata
   testata estesamente per questo scopo e non si può tornare al presente.

   IO: Fantastico! La voglio. Servono permessi?

   GPT9000: Dalle informazioni in mio possesso nel tuo paese la
   criogenesi non è regolata espressamente.

   IO: Benone! Cosa può andare storto?

   GPT9000: Mi spiace, solo solo un agente software, non posso fare
   previsioni su cosa può accadere se usi una macchina per la criogenia
   non testata per viaggiare nel futuro. Buona fortuna!

   ...


Ciao,

Alberto



On 16/04/23 13:07, Enrico Nardelli wrote:

Grazie Marco, molto bello!

La riflessione finale

«This is all an old story, though: It reminds us that many of the bad uses of AI are a reflection of humanity more than they are a reflection of AI technology itself. »

sottolinea ancora una volta che non ci sono strumenti e loro usi la responsabilità dei quali non sia riconducibile ad esseri umani (punto che Giacomo Tesio giustissimamente enfatizza sempre).

Ciao, Enrico

Il 11/04/2023 10:02, Marco A. Calamari ha scritto:
Un interessante saggio di Bruce Schneier sugli usi criminali e manipolatori degli LLM,  che dovrebbe farci scendere ogni tanto dai ragionamenti troppo filosofici a quelli più pratici.

Consigliato.

https://www.schneier.com/blog/archives/2023/04/llms-and-phishing.html

Marco

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--

-- EN

https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
        ======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================


--

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to