Cara Daniela,
grazie per aver condiviso la riflessione.
Due cose:
Uno- potrebbe essere utile spacchettare il "principio precuzionale"
nelle diverse varianti ('statements') che contengono una pericolosa
ambiguità semantica.
Da Stewart, R.B. (2002). "Environmental Regulatory Decision Making Under
Uncertainty". Research in Law and Economics. 20: 76.
precautionary *approach*:
1. anticipate harm before it occurs
2. proportionality of the risk and the cost and feasibility of a
proposed action
precautionary principle *statements*:
1 /Non-Preclusion PP/ : Scientific uncertainty should not automatically
preclude regulation of activities that pose a potential risk of
significant harm.
2 /Margin of Safety PP/ : Regulatory controls should incorporate a
margin of safety; activities should be limited below the level at which
no adverse effect has been observed or predicted.
3 /Best Available Technology PP/ : Activities that present an uncertain
potential for significant harm should be subject to best technology
available requirements to minimise the risk of harm unless the proponent
of the activity shows that they present no appreciable risk of harm.
4 /Prohibitory PP/: Activities that present an uncertain potential for
significant harm should be prohibited unless the proponent of the
activity shows that it presents no appreciable risk of harm.
Se non ci si accorda su quale statement si usa, tutti possono dire di
applicare un PP, ma non intendono la stessa cosa.
Due- Forse può essere utile anche includere la _responsabilità di chi
questa tecnologia e scienza la sviluppa e la insegna_.
Continuare a non porsi domande e a lasciare agli altri il ruolo di
"valutare l'impatto" delle tecnologie che noi tecnologi sviluppiamo non
è più sostenibile.
Quanti di noi sono impegnati a perfezionare "recommendation systems",
che non sono altro che sistemi di persuasione pronti alla weaponization?
Servono assunzioni di responsabilità, moratorie e obiezioni di coscienza
dal basso: certe cose non si insegnano più finché il loro impiego non è
regolato e sanzionato.
Questo nell'interesse della collettività ma anche della scienza stessa,
che tra non molto finirà in blocco sul banco degli imputati, con
risultati che non credo possano essere positivi.
Un saluto,
Alberto
On 20/05/23 23:01, Daniela Tafani wrote:
Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per
questa lista:
<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/
<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/>>
Vi sarei grata di qualsiasi commento o osservazione.
Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere
alcuni specifici compiti, che erano stati, finora, prerogativa dei
soli esseri umani.
Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno
consentito questi genuini progressi, le grandi aziende tecnologiche
hanno colto l’opportunità per un’espansione illimitata di prodotti e
servizi «intelligenti». Hanno diffuso e messo in commercio, con la
formula di marketing «intelligenza artificiale», sistemi di
apprendimento automatico, per lo svolgimento di attività che tali
sistemi non sono in grado di svolgere o che semplicemente non sono
possibili. Tra i prodotti di questo genere – costitutivamente
pericolosi e non funzionanti – ci sono le auto a guida autonoma, i
sistemi di ottimizzazione predittiva e i generatori di linguaggio
naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti
ricadesse sui produttori, la loro commercializzazione non sarebbe
vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a
una fonte di enorme profitto, i giganti della tecnologia hanno diffuso
una famiglia di narrazioni che danno forma alla percezione pubblica
del rapporto tra etica, politica, diritto e tecnologia e costituiscono
gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così
entrati a far parte del senso comune, tra gli altri, il principio di
inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il
principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe
inapplicabili i sistemi normativi vigenti e gli ordinari criteri di
attribuzione della responsabilità, si oppone oggi una crescente
consapevolezza del fatto che i sistemi informatici sono artefatti,
ossia prodotti, e che non c’è alcuna ragione per sottrarne la
distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto,
Daniela
<https://btfp.sp.unipi.it/it/front-page/>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa