Non so se ho capito correttamente il senso del tuo intervento, ma vorrei
rispondere comunque al tuo invito di osservare e commentare.

Nel tuo ragionamento, che ha il pregio di esemplificare una posizione
radicale, mi sembra di scorgere alcuni difetti logici, ideologici e
materiali

Prendiamo ad esempio:

> . Tra i prodotti di [intelligenza artificiale] – costitutivamente
pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi
di ottimizzazione predittiva e i generatori di linguaggio naturale.

Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità
futura di avere auto a guida autonoma che si comportano meglio di certi
miei concittadini (romani, ndr), o che vi sia mai la possibilità di
lanciare un'allerta meteo localizzato a breve termine in grado di salvare
vite umane (tema di attualità), o ancora di avere sistemi di supporto
linguistico che aiutano gli immigrati a comprendere certe gabole della
nostra pubblica amministrazione. Sul 'non funzionanti' ci sarebbe anche da
dire. A quel che si vede nella comunità tecnico-scientifica,  certe cose
non funzionano, altre hanno difetti, ma altre vanno decisamente bene.
Considera che se i nostri figli potranno guarire da certe malattie,
qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu
svaluti
<https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d41586-022-00997-5.pdf>.


Questa tua visione categoricamente negativa sta alla base - mi pare - del
punto centrale del ragionamento:

> Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse
sui produttori, la loro commercializzazione non sarebbe vantaggiosa.

In quegli 'effetti ordinari' però c'è una grossa petizione di principio.
Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari'
deleteri? Chi ha stabilito che non si possa in alcun modo ottenere
un'applicazione ragionevolmente sicura di queste tecniche, così da poter
distinguere normalmente tra potenzialità e attualità dell'uso?

Questo assimilare la produzione di AI a quella - per dire - dell'iprite o
dell'antrace mi sembra un po' ingenerosa. Più benevolmente, potremmo
convenire che si tratta di prodotti il cui uso va normato, come quello di
tutti gli altri. Per usare una facile metafora: per evitare gli incidenti
stradali non è ragionevole vietare la produzione di automobili, dobbiamo
però far rispettare i limiti di velocità e perseguire severamente chi li
eccede.

Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua
ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi
e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la
pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere
questo :-)

Buona giornata,
G.

PS colgo l'occasione per segnalarvi un mio articolo che potrebbe
interessarvi: Serve Wittgenstein per capire ChatGPT
<https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il
Manifesto)






On Sat, 20 May 2023 at 23:01, Daniela Tafani <daniela.taf...@unipi.it>
wrote:

> Buonasera.
>
>
> Ho appena pubblicato un articolo che potrebbe essere di interesse per
> questa lista:
>
> <
> https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/
> >
>
>
> Vi sarei grata di qualsiasi commento o osservazione.
>
>
> Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto:
>
>
> I sistemi di intelligenza artificiale sono oggi in grado di svolgere
> alcuni specifici compiti, che erano stati, finora, prerogativa dei soli
> esseri umani.
> Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno
> consentito questi genuini progressi, le grandi aziende tecnologiche hanno
> colto l’opportunità per un’espansione illimitata di prodotti e servizi
> «intelligenti». Hanno diffuso e messo in commercio, con la formula di
> marketing «intelligenza artificiale», sistemi di apprendimento automatico,
> per lo svolgimento di attività che tali sistemi non sono in grado di
> svolgere o che semplicemente non sono possibili. Tra i prodotti di questo
> genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a
> guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di
> linguaggio naturale.
>
> Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse
> sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per
> sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme
> profitto, i giganti della tecnologia hanno diffuso una famiglia di
> narrazioni che danno forma alla percezione pubblica del rapporto tra etica,
> politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di
> qualsiasi discorso pubblico. Sono così entrati a far parte del senso
> comune, tra gli altri, il principio di inevitabilità tecnologica, il mito
> dell’eccezionalismo tecnologico, il principio di innovazione e il mito del
> vuoto giuridico.
>
> Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe
> inapplicabili i sistemi normativi vigenti e gli ordinari criteri di
> attribuzione della responsabilità, si oppone oggi una crescente
> consapevolezza del fatto che i sistemi informatici sono artefatti, ossia
> prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la
> commercializzazione alla legislazione ordinaria.
>
> Un saluto,
> Daniela
>
>
> <https://btfp.sp.unipi.it/it/front-page/>
>
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to