Giacomo,
non intendo replicare, ma mi corre l'obbligo di sollevare il Manifesto da
qualsiasi responsabilità a riguardo delle mie personali opinioni

Buona serata,
G.

On Tue, 23 May 2023 at 11:35, Giacomo Tesio <giac...@tesio.it> wrote:

> Salve Guido,
>
> On Tue, May 23, 2023 at 06:54:31AM +0200, Guido Vetere wrote:
> > Non so se ho capito correttamente il senso del tuo intervento, ma vorrei
> > rispondere comunque al tuo invito di osservare e commentare.
>
> più che altro, mi chiedo se tu l'abbia letto... ;-)
>
> > Nel tuo ragionamento, che ha il pregio di esemplificare una posizione
> > radicale [...]
>
> Immagino che Daniela appaia "radicale" perché tiene i piedi ben
> saldi per terra, senza lanciarsi in fantasiosi voli pindarici sulle
> magnifiche sorti e progressive della "intelligenza artificiale".
>
> Come darti torto: è radicale restare saldamente radicato alla realtà.
>
> > mi sembra di scorgere alcuni difetti logici, ideologici e materiali
>
> In tutta onestà, Guido, mi sembrano evidenti diversi errori logici e
> informatici nella tua analisi dell'articolo di Daniela.
>
> Errori comprensibilissimi se interpretati come espressione di una
> ideologia dai tratti quasi religiosi.
>
>
> > Prendiamo ad esempio:
> >
> > > . Tra i prodotti di [intelligenza artificiale] – costitutivamente
> > pericolosi e non funzionanti – ci sono le auto a guida autonoma, i
> sistemi
> > di ottimizzazione predittiva e i generatori di linguaggio naturale.
> >
> > Quel 'costitutivamente' è un giudizio categorico che esclude la
> possibilità
> > futura di avere auto a guida autonoma che si comportano meglio di certi
> > miei concittadini (romani, ndr)
>
> No, esclude la possibilità di avere auto a guida autonoma che si
> comportino meglio dei tuoi concittadini su una strada aperta ai
> tuoi contittadini. Questo perché l'imprevedibilità del comportamento
> umano e animale non può essere gestita da una macchina programmata
> statisticamente.
>
> Se parlassimo propriamente di programmazione statistica invece che di
> "intelligenza artificiale", il fatto che ad input poco frequenti o
> inediti il software prodotto non possa rispondere in modo adeguato
> apparirebbe evidente a tutti.
>
> Per QUESTO si continua a blaterare di "intelligenza artificiale":
> per approfittare dell'ignoranza informatica diffusa.
>
>
> Detto questo, su strade ad uso esclusivo dei veicoli a guida autonoma
> e con torri di controllo che ne monitorino e coordininino gli
> spostamenti, tali sistemi possono funzionare (fintanto che, comunque,
> ci sia qualcuno a bordo in grado di prenderne efficacemente il
> controllo e guidarli in caso di bug o anomalie di sensori/attuatori).
>
> Insomma, più o meno come avviene già nel traffico aereo.
>
>
> > o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato
> > a breve termine in grado di salvare vite umane (tema di attualità),
>
> In nessun passaggio dell'articolo di Daniela compare la meteorologia.
>
> Daniela parla in modo inequivocabile di ottimizzazioni predittive del
> comportamento umano.
>
> Dunque, se abbiamo letto lo stesso articolo, questo tuo argomento
> fantoccio costituisce una fallacia logica piuttosto ingenua.
>
> E non solo perché su Nexa tutti hanno le competenze per riconoscerla!
>
>
> La meteorologia ha migliaia di anni, migliaia di addetti in tutto il
> mondo e notevoli applicazioni commerciali e MILITARI.
>
> Eppure non riesce a prevedere con precisione le precipitazioni entro
> due o tre giorni, ECCETTO che in circostanze straordinarie.
>
>
> E se non riusciamo a prevedere con precisione l'evoluzione di fluidi
> e gas, che non godono di libero arbitrio, figurati prevedere il
> comportamento di un essere umano!
>
>
> Dunque il tuo strawman, paradossalmente, andrebbe aggiunto agli
> argomenti di Daniela sulla costituitiva pericolosità di qualsiasi
> sistema di ottimizzazione predittiva applicata ad esseri umani
>
>
> > o ancora di avere sistemi di supporto linguistico che aiutano
> > gli immigrati a comprendere certe gabole della nostra pubblica
> > amministrazione.
>
> E perché diamine dovremmo affidare persone vulnerabili come i migranti
> ad software che costituitivamente possibi dire stronzate?
>
> Chi risponderà degli illeciti eventualmente commessi in buona fede
> da tali migranti su suggerimento di tali software?
>
> A chi credi che andrà a suonare il cambanello il Salvini di turno?
>
>
> > Sul 'non funzionanti' ci sarebbe anche da dire.
>
> Concordo: un orologio fermo non funziona.
> Una bomba a orologeria funziona benissimo: non deve stare sul mercato.
>
> > A quel che si vede nella comunità tecnico-scientifica,  certe cose
> > non funzionano, altre hanno difetti, ma altre vanno decisamente bene.
> > Considera che se i nostri figli potranno guarire da certe malattie,
> > qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu
> > svaluti
> > <
> https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d41586-022-00997-5.pdf
> >.
>
> Altro argomento fantoccio, Guido.
>
>
> L'analisi di Daniela non è "categoricamente negativa", ma oggettiva:
> riporta diverse evidenze (e altre se ne potrebbero aggiungere) di
> prodotti e servizi che si sono rivelati dannosi, veicolando violazioni
> normative e talvolta persino omicidi (si pensi alla povera Elaine
> Hertzberg).
>
>
> Daniela non "svaluta" alcuna tecnica, ma critica alcune PERSONE che
> propagandano e vendono alcune applicazioni di determinate tecniche
> analizzando alcuni PRODOTTI e SERVIZI.
>
>
> Se abbiamo letto lo stesso articolo, potrebbe essere utile concentarci
> su ciò che Daniela ha scritto, non credi?
>
> Non è mica l'output di ChatGPT, in fondo... ;-)
>
>
> > Questa tua visione categoricamente negativa sta alla base - mi pare - del
> > punto centrale del ragionamento:
> >
> > > Se la responsabilità per gli effetti ordinari di tali prodotti
> ricadesse
> > > sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
> >
> > In quegli 'effetti ordinari' però c'è una grossa petizione di principio.
>
> Direi piuttosto che c'è una notevole comprensione del loro funzionamento.
>
> Gli effetti ordinari di una bomba atomica sono deleterei.
> Gli effetti ordinari di una centrale atomica (ben costruita e manutenuta
> in modo anti-economico, anteponendo la sicurezza al profitto) possono
> non esserli.
>
> La fisica alla base di entrambi i prodotti è la stessa.
>
>
> Analogamente, la programmazione statistica potrà facilmente migliorare
> le previsioni meteorologiche (le ha migliorate, in effetti), ma non
> potrà mai PREVEDERE il comportamento individuale sul lungo periodo
> (pur potendolo influenzare probabilisticamente).
>
>
> > Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti
> ordinari'
> > deleteri? Chi ha stabilito che non si possa in alcun modo ottenere
> > un'applicazione ragionevolmente sicura di queste tecniche, così da poter
> > distinguere normalmente tra potenzialità e attualità dell'uso?
>
> Nessuno.
>
> E infatti Daniela non lo esclude.
>
> Rileva che, le applicazioni su cui si stanno investendo miliardi OGGI
> hanno effetti ordinari costitutivamente deleteri.
>
>
> Tuttavia, se posso agganciarmi qui per una piccola critica all'articolo
> di Daniela, direi piuttosto che quella frase è discutibile per l'uso del
> termine "vantaggiosa".
>
> @Daniela: non è affatto detto che la commercializzazione di una
> determinata tecnologia persegua un profitto economico.
> In molti casi il vantaggio perseguito è di natura sociale e politica.
>
> Dunque se mi posso permettere una correzione, riformulerei quella frase
> come "Se la responsabilità per gli effetti ordinari (aka esternalità)
> di tali prodotti ricadesse interamente sui produttori, la loro
> commercializzazione sarebbe antieconomica."
>
>
>
> > Questo assimilare la produzione di AI a quella - per dire - dell'iprite o
> > dell'antrace mi sembra un po' ingenerosa. Più benevolmente
>
> Perché dovremmo essere benevoli con questa gente?
>
> Io direi piuttosto che dovremmo essere estremamente severi.
>
>
> > potremmo  convenire che si tratta di prodotti il cui uso va normato,
> come
> > quello di tutti gli altri.
>
> Su questo siamo assolutamente d'accordo: dovremmo normarli come normiamo
> le droghe pesanti, come cocaina e allucinogeni, che producono (a livello
> individuale) effetti paragonabili a quelli dei prodotti citati (a
> livello sociale e collettivo).
>
> > Per usare una facile metafora: per evitare gli incidenti
> > stradali non è ragionevole vietare la produzione di automobili, dobbiamo
> > però far rispettare i limiti di velocità e perseguire severamente chi li
> > eccede.
>
> Splendido esempio.
>
> E dovremmo anche arrestare per omicidio i consigli di amministrazione
> delle auto a guida autonoma che causano incidendi mortali.
>
> Quando il consiglio di ammistrazione di Uber verrà arrestato per
> l'omicidio di Elain Herzberg, potremo brindare insieme.
>
>
> > Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la
> sua
> > ordinarietà. Certe narrazioni manipolatrici e interessate di aziende
> grandi
> > e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la
> > pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere
> > questo :-)
>
> Non so cosa sia un tecno-intellettuale gramsciano.
>
> Ma dubito che Gramsci apprezzerebbe questa accozzaglia di argomenti
> fantoccio in difesa della nuova tecnologia oppressiva dei padroni. ;-)
>
>
>
> D'altro canto, Daniela porta una asprissima critica ad un mondo
> intellettuale (o forse tecno-intellettuali) che prende i soldi
> dell'industria per svilupparne e diffonderne la propaganda
> attraverso narrazioni che la giustifichino.
>
>
> Ne è un esempio perfetto l'articolo che hai pubblicato sul Manifesto
>
> > PS colgo l'occasione per segnalarvi un mio articolo che potrebbe
> > interessarvi: Serve Wittgenstein per capire ChatGPT
> > <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il
> > Manifesto)
>
> Il declino della stampa, la totale scomparsa di qualsiasi senso
> critico, mi lascia sempre allibito.
>
>
> "Al di là della responsabilità legale dell'esercizio di tali sistemi"
>
> Nessuno che abbia riletto il tuo testo prima di pubblicarlo si è
> chiesto: "perché 'al di là'? non è una responsabilità fondamentale?"
>
> "chi si impegna quando l'automa parla? La risposta breve è: nessuno."
>
> Nessuno che abbia riletto il tuo testo si è chiesto chi si è impegnato
> a programmamarlo quell'automa che parla? Si è programmata da sola?
> Si è accesa da sola? Si paga le bollette da sola?
>
>
> Ma soprattutto, nessuno in una testata storica come il Manifesto è stato
> capace di chiedersi "Cui prodest?"
>
>
>
>
> Questa seconda parte dell'articolo di Daniela mi sembra molto
> interessante per Nexa: nessun commento sulla cattura culturale in corso?
>
> Daniela ne analizza i diversi strumenti retorici:
>
> - il principio di inevitabilità tecnologica
> - il principio di innovazione
> - la prospettiva soluzionistica
> - l'antropomorfizzazione delle macchine a la deumanizzazione delle
>   persone
> - i miti dell'eccezionalismo tecnologico e del vuoto giuridico
> - gli allarmi su rischi e pericoli tratti dal futuro o dalla
>   fantascienza
> - i messianesimi eugenetici
>
>
> si tratta di narrazioni finalizzate alla conquista di una nuova
> egemonia culturale, che deve essere sposata acriticamente.
>
>
> La successiva trattazione dell'aspetto normativo è, secondo me,
> ineccepibile:
>
> > L'eventuale impossibilità di risalire alla responsabilità dovrebbe
> > perciò essere assimilata giuridicamente, anziché a un rebus
> > filosofico, a una forma di negligenza del produttore.
>
> Non sono sicuro che la categoria della negligenza sia appropriata,
> onestamente (il dolo è evidente), ma di certo non c'è alcun rebus
> filosofico in atto, solo fumo negli occhi (evidentemnte ricco di THC)
>
>
> Credo che, passato l'effetto del fumo, una lucida lettura
> dell'articolo di Daniela potrebbe di grande aiuto ai pochi
> politici che non si vogliano far manipolare dall'industria.
>
>
> Speriamo abbia ampia diffusione.
>
>
> Giacomo
>
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to