Buona sera Giovanni,
credo che la responsabilità maggiore sia indiscutibilmente del
management che progetta la macchina per specifici fini, specie
illegittimi, più di chi la realizza nel codice.
Va ricordato però che una condotta illegale anche se in esecuzione di
ordine dato da un superiore gerarchico non esime dalla responsabilità,
se chi lo esegue è in possesso delle necessarie cognizioni tecniche per
avvedersi della illiceità.
Chi ha realizzato i dispositivi di Google Street view che raccoglievano
dati delle reti wifi e relativi payload sapeva di realizzare un
corporate wardriving.
Chi ha modificato le centraline dei diesel VW per superare i test non
poteva non sapere cosa stesse facendo.
Che 'obbedisse agli ordini' senza condividerli o condividesse le
intenzioni del management può al massimo costituire una attenuante o
aggravante.
Chi programma non è esente da responsabilità, e molti whistleblowers si
sono esposti per non condividere nemmeno la responsabilità morale.
Come non penso che queste tecniche siano intrinsecamente malvagie, così
non penso nemmeno che ne vada censurato l'insegnamento o la ricerca,
anzi, va approfondita per limitarne al massimo la perniciosità. Nel
frattempo ne va limitata l'applicazione indiscriminata fino a che non si
sarà capito cosa va fatto con i dati in input e con gli output, per
rispettare chi li ha prodotti ed evitare l'inquinamento dello spazio
comunicativo umano.
Data la capacità produttiva degli LLM e la fulminea adozione globale,
molto presto vedremo che gli output automatici o ibridi supereranno in
volume quelli puramente umani e entreranno nei dati di training degli
LLM delle generazioni successive. Già ora non abbiamo certezza che una
pagina web abbia origine umana, tra non molto avremo interi siti si spam
molto ben scritto generati automaticamente, per favorire le economie dei
backlink (fenomeno già in atto [1]).
Questo di sicuro perturberà i criteri SEO e i motori di ricerca, ma
quello che mi preoccupa di più è immaginare cosa accadrà allora alla
lingua. Verosimilmente con LLM autofertilizzanti (che producono più
testi di quanto ne consumano) si amplificheranno gli effetti di
allucinazione e le derive, quelle sì evolutive: assisteremo a una
proliferazione di testi con caratteristiche progressivamente proprie e
singolari, distanti dalla lingua usata comunemente dagli umani? Oppure i
padroni del web correranno ai ripari e le contromisure privilegeranno i
testi dei siti 'affidabili'?
Mi fermo qui, ma questo è quello che intendo quando parlo di
inquinamento dell'ecosistema linguistico.
Ciao,
Alberto
[1] <https://herman.bearblog.dev/the-chatgpt-vs-bear-blog-spam-war/>
On 17/04/23 17:01, 380° wrote:
Buongiorno Alberto
Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> writes:
[...]
L'oggetto di per se non è responsabile di nulla, ma i vari attori che
costruiscono l'ecosistema del suo impiego lo sono: chi
progetta/programma/vende/impiega, ciascuno per la parte di azione
compiuta attraverso la macchina che gli compete.
Sì ma analizziamo bene quale /azione/ ciascun attore compie e la
relativa responsabilità che gli compete: che responsabilità ha chi
definisce le specifiche? E chi programma il software? E chi lo propone
al /mercato/ sotto forma di servizio adatto a uno scopo?
Nel caso del LLM programmato statisticamente secondo le specifiche
derivate dalle teorie della "Cognitive Behavioral Therapy" usato in
Wysa, la responsabilità di esercizio abusivo di professione (giudizio
mio) è dei programmatori? É di chi ha sviluppato lo specifico LLM?
[...]
L'industria del software ha sempre sfuggito tale responsabilità (vedasi
i vari /standard disclaimers/ e l'argomento del "tech exceptionalism").
All'aumentare degli effetti sul mondo, chi progetta e vende queste
tecnologie non può esimersi dal considerarsi in una ragionevole misura
responsabile dei possibili impieghi di ciò che costruisce.
Non nego che il software includa anche (soprattutto!) l'"intenzione
politica" di chi lo /progetta/, ma vogliamo davvero fare un "processo
alle intenzioni"?
Se seguissimo fino in fondo questo ragionamento dovremmo seriamente
pensare di chiamare /in giudizio/ "la scienza" (pseudoscienza?) che è
alla base della progettazione dello specifico software (e non solo del
software, ovviamente).
«L’arte e la scienza sono libere e libero ne è l’insegnamento», per cui
non credo sia il caso di perseguire questa strada assai pericolosa, così
come non credo sia il caso di perseguire la strada opposta e altrettanto
pericolosa di negare i diritti costituzionali in nome della libertà di
ricerca o della asserita scientificità di alcune determinazioni.
Se non c'è dolo o colpa grave [1] a nessuno sviluppatore software può
essere chiesto conto dell'adeguatezza a tutti i possibili /impieghi/, a
volte criminali, di ciò che ha sviluppato. (Lo stesso dovrebbe valere
anche per gli scienziati, ma limitiamoci al software)
É per quello che praticamente tutte le licenze d'uso (contratti
_atipici_) del software contengono una clausola di "assenza di garanzia"
o di "esclusione di responsabilità" [2]
Anche nei contratti di sviluppo software c'è una piuttosto consolidata
giurisprudenza (o solo prassi?) in merito alle garanzie con le quali
tutelare l'acquirente in caso di presenza di vizi nel software [3]:
--8<---------------cut here---------------start------------->8---
Nel caso dei contratti di appalto [...] il committente deve denunciare
tali vizi all'appaltatore entro sessanta giorni dalla scoperta per
godere della garanzia. Nel caso in cui il committente abbia accettato
l'opera e le difformità o i vizi erano da lui conosciuti o erano
facilmente riconoscibili, previa buona fede dell'appaltatore, non si può
avvalere della garanzia.
Nel caso in cui il contratto di sviluppo di software sia riconducibile
ad un contratto di opera intellettuale, allora l'appaltatore non
risponde della garanzia se non si verifica un caso di dolo o colpa
grave.
--8<---------------cut here---------------end--------------->8---
Sottolineo: «Nel caso in cui [...] i vizi [...] erano facilmente
riconoscibili [...] non si può avvalere della garanzia.»
Non è allo sviluppatore software che bisogna chiedere conto degli
(ab)usi che vengono fatti del software che ha programmato, non è lui che
decide che quel software, ANCHE SE (probabilmente) CONTIENE VIZI, viene
utilizzato impropriamente e _soprattutto_ senza adeguate misure per
minimizzare il rischio.
Casomai, è l'utilizzatore del software che dovrà dimostrare al giudice
(c'è un giudice?!?...) di aver condotto adeguate analisi di adeguatezza
all'utilizzo, una adeguata analisi dei rischi e di aver adottato misure
adeguate per minimizzare (al massimo possibile secondo lo stato
dell'arte) i rischi residui non eliminabili.
Ecco le parole magiche "minimizzare i rischi non eliminabili con misure
adeguate", potendolo dimostrare /documentalmente/.
Così si comincia a ragionare. O no?
Poi, io voglio proprio vedere come può fare l'utilizzatore del software
a condurre una l'analisi dei rischi senza poter analizzare il software
(o almeno avvalersi di analisi pubbliche di terze parti) perché lo ha a
disposizione solo in formato binario... o perché è una scatola nera
"inesplicabile".
Poi, non c'è solo la responsabilità da prodotto o servizio, c'è anche la
pubblicità ingannevole... ma andrei OT e mi fermo qui
[...]
saluti, 380°
[1] che sono da provare /in giudizio/, non possono essere
pre-determinati anticipatamente, ovviamente
[2]
https://it.wikiversity.org/wiki/Tutela_dei_beni_informatici_(software,_database,_opere_multimediali,_ecc.)_fra_diritto_d%E2%80%99autore,_brevetto_e_diritto_sui_generis#Licenze_d'uso
[3]
https://it.wikiversity.org/wiki/Tutela_dei_beni_informatici_(software,_database,_opere_multimediali,_ecc.)_fra_diritto_d%E2%80%99autore,_brevetto_e_diritto_sui_generis#Contratti_di_processo_software
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa