Cara Daniela,

grazie per aver condiviso la riflessione.


Due cose:


Uno- potrebbe essere utile spacchettare il "principio precuzionale" nelle diverse varianti ('statements') che contengono una pericolosa ambiguità semantica.


Da Stewart, R.B. (2002). "Environmental Regulatory Decision Making Under Uncertainty". Research in Law and Economics. 20: 76.


precautionary *approach*:
1. anticipate harm before it occurs
2. proportionality of the risk and the cost and feasibility of a proposed action

precautionary principle *statements*:
1 /Non-Preclusion PP/ : Scientific uncertainty should not automatically preclude regulation of activities that pose a potential risk of significant harm. 2 /Margin of Safety PP/ : Regulatory controls should incorporate a margin of safety; activities should be limited below the level at which no adverse effect has been observed or predicted. 3 /Best Available Technology PP/ : Activities that present an uncertain potential for significant harm should be subject to best technology available requirements to minimise the risk of harm unless the proponent of the activity shows that they present no appreciable risk of harm. 4 /Prohibitory PP/: Activities that present an uncertain potential for significant harm should be prohibited unless the proponent of the activity shows that it presents no appreciable risk of harm.

Se non ci si accorda su quale statement si usa, tutti possono dire di applicare un PP, ma non intendono la stessa cosa.


Due- Forse può essere utile anche includere la _responsabilità di chi questa tecnologia e scienza la sviluppa e la insegna_.

Continuare a non porsi domande e a lasciare agli altri il ruolo di "valutare l'impatto" delle tecnologie che noi tecnologi sviluppiamo non è più sostenibile.

Quanti di noi sono impegnati a perfezionare "recommendation systems", che non sono altro che sistemi di persuasione pronti alla weaponization?

Servono assunzioni di responsabilità, moratorie e obiezioni di coscienza dal basso: certe cose non si insegnano più finché il loro impiego non è regolato e sanzionato.


Questo nell'interesse della collettività ma anche della scienza stessa, che tra non molto finirà in blocco sul banco degli imputati, con risultati che non credo possano essere positivi.


Un saluto,


Alberto



On 20/05/23 23:01, Daniela Tafani wrote:

Buonasera.


Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:

<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/ <https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/>>


Vi sarei grata di qualsiasi commento o osservazione.


Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto:


I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.

Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.

Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.

Un saluto,
Daniela


<https://btfp.sp.unipi.it/it/front-page/>



_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to