Giacomo, non intendo replicare, ma mi corre l'obbligo di sollevare il Manifesto da qualsiasi responsabilità a riguardo delle mie personali opinioni
Buona serata, G. On Tue, 23 May 2023 at 11:35, Giacomo Tesio <giac...@tesio.it> wrote: > Salve Guido, > > On Tue, May 23, 2023 at 06:54:31AM +0200, Guido Vetere wrote: > > Non so se ho capito correttamente il senso del tuo intervento, ma vorrei > > rispondere comunque al tuo invito di osservare e commentare. > > più che altro, mi chiedo se tu l'abbia letto... ;-) > > > Nel tuo ragionamento, che ha il pregio di esemplificare una posizione > > radicale [...] > > Immagino che Daniela appaia "radicale" perché tiene i piedi ben > saldi per terra, senza lanciarsi in fantasiosi voli pindarici sulle > magnifiche sorti e progressive della "intelligenza artificiale". > > Come darti torto: è radicale restare saldamente radicato alla realtà. > > > mi sembra di scorgere alcuni difetti logici, ideologici e materiali > > In tutta onestà, Guido, mi sembrano evidenti diversi errori logici e > informatici nella tua analisi dell'articolo di Daniela. > > Errori comprensibilissimi se interpretati come espressione di una > ideologia dai tratti quasi religiosi. > > > > Prendiamo ad esempio: > > > > > . Tra i prodotti di [intelligenza artificiale] – costitutivamente > > pericolosi e non funzionanti – ci sono le auto a guida autonoma, i > sistemi > > di ottimizzazione predittiva e i generatori di linguaggio naturale. > > > > Quel 'costitutivamente' è un giudizio categorico che esclude la > possibilità > > futura di avere auto a guida autonoma che si comportano meglio di certi > > miei concittadini (romani, ndr) > > No, esclude la possibilità di avere auto a guida autonoma che si > comportino meglio dei tuoi concittadini su una strada aperta ai > tuoi contittadini. Questo perché l'imprevedibilità del comportamento > umano e animale non può essere gestita da una macchina programmata > statisticamente. > > Se parlassimo propriamente di programmazione statistica invece che di > "intelligenza artificiale", il fatto che ad input poco frequenti o > inediti il software prodotto non possa rispondere in modo adeguato > apparirebbe evidente a tutti. > > Per QUESTO si continua a blaterare di "intelligenza artificiale": > per approfittare dell'ignoranza informatica diffusa. > > > Detto questo, su strade ad uso esclusivo dei veicoli a guida autonoma > e con torri di controllo che ne monitorino e coordininino gli > spostamenti, tali sistemi possono funzionare (fintanto che, comunque, > ci sia qualcuno a bordo in grado di prenderne efficacemente il > controllo e guidarli in caso di bug o anomalie di sensori/attuatori). > > Insomma, più o meno come avviene già nel traffico aereo. > > > > o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato > > a breve termine in grado di salvare vite umane (tema di attualità), > > In nessun passaggio dell'articolo di Daniela compare la meteorologia. > > Daniela parla in modo inequivocabile di ottimizzazioni predittive del > comportamento umano. > > Dunque, se abbiamo letto lo stesso articolo, questo tuo argomento > fantoccio costituisce una fallacia logica piuttosto ingenua. > > E non solo perché su Nexa tutti hanno le competenze per riconoscerla! > > > La meteorologia ha migliaia di anni, migliaia di addetti in tutto il > mondo e notevoli applicazioni commerciali e MILITARI. > > Eppure non riesce a prevedere con precisione le precipitazioni entro > due o tre giorni, ECCETTO che in circostanze straordinarie. > > > E se non riusciamo a prevedere con precisione l'evoluzione di fluidi > e gas, che non godono di libero arbitrio, figurati prevedere il > comportamento di un essere umano! > > > Dunque il tuo strawman, paradossalmente, andrebbe aggiunto agli > argomenti di Daniela sulla costituitiva pericolosità di qualsiasi > sistema di ottimizzazione predittiva applicata ad esseri umani > > > > o ancora di avere sistemi di supporto linguistico che aiutano > > gli immigrati a comprendere certe gabole della nostra pubblica > > amministrazione. > > E perché diamine dovremmo affidare persone vulnerabili come i migranti > ad software che costituitivamente possibi dire stronzate? > > Chi risponderà degli illeciti eventualmente commessi in buona fede > da tali migranti su suggerimento di tali software? > > A chi credi che andrà a suonare il cambanello il Salvini di turno? > > > > Sul 'non funzionanti' ci sarebbe anche da dire. > > Concordo: un orologio fermo non funziona. > Una bomba a orologeria funziona benissimo: non deve stare sul mercato. > > > A quel che si vede nella comunità tecnico-scientifica, certe cose > > non funzionano, altre hanno difetti, ma altre vanno decisamente bene. > > Considera che se i nostri figli potranno guarire da certe malattie, > > qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu > > svaluti > > < > https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d41586-022-00997-5.pdf > >. > > Altro argomento fantoccio, Guido. > > > L'analisi di Daniela non è "categoricamente negativa", ma oggettiva: > riporta diverse evidenze (e altre se ne potrebbero aggiungere) di > prodotti e servizi che si sono rivelati dannosi, veicolando violazioni > normative e talvolta persino omicidi (si pensi alla povera Elaine > Hertzberg). > > > Daniela non "svaluta" alcuna tecnica, ma critica alcune PERSONE che > propagandano e vendono alcune applicazioni di determinate tecniche > analizzando alcuni PRODOTTI e SERVIZI. > > > Se abbiamo letto lo stesso articolo, potrebbe essere utile concentarci > su ciò che Daniela ha scritto, non credi? > > Non è mica l'output di ChatGPT, in fondo... ;-) > > > > Questa tua visione categoricamente negativa sta alla base - mi pare - del > > punto centrale del ragionamento: > > > > > Se la responsabilità per gli effetti ordinari di tali prodotti > ricadesse > > > sui produttori, la loro commercializzazione non sarebbe vantaggiosa. > > > > In quegli 'effetti ordinari' però c'è una grossa petizione di principio. > > Direi piuttosto che c'è una notevole comprensione del loro funzionamento. > > Gli effetti ordinari di una bomba atomica sono deleterei. > Gli effetti ordinari di una centrale atomica (ben costruita e manutenuta > in modo anti-economico, anteponendo la sicurezza al profitto) possono > non esserli. > > La fisica alla base di entrambi i prodotti è la stessa. > > > Analogamente, la programmazione statistica potrà facilmente migliorare > le previsioni meteorologiche (le ha migliorate, in effetti), ma non > potrà mai PREVEDERE il comportamento individuale sul lungo periodo > (pur potendolo influenzare probabilisticamente). > > > > Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti > ordinari' > > deleteri? Chi ha stabilito che non si possa in alcun modo ottenere > > un'applicazione ragionevolmente sicura di queste tecniche, così da poter > > distinguere normalmente tra potenzialità e attualità dell'uso? > > Nessuno. > > E infatti Daniela non lo esclude. > > Rileva che, le applicazioni su cui si stanno investendo miliardi OGGI > hanno effetti ordinari costitutivamente deleteri. > > > Tuttavia, se posso agganciarmi qui per una piccola critica all'articolo > di Daniela, direi piuttosto che quella frase è discutibile per l'uso del > termine "vantaggiosa". > > @Daniela: non è affatto detto che la commercializzazione di una > determinata tecnologia persegua un profitto economico. > In molti casi il vantaggio perseguito è di natura sociale e politica. > > Dunque se mi posso permettere una correzione, riformulerei quella frase > come "Se la responsabilità per gli effetti ordinari (aka esternalità) > di tali prodotti ricadesse interamente sui produttori, la loro > commercializzazione sarebbe antieconomica." > > > > > Questo assimilare la produzione di AI a quella - per dire - dell'iprite o > > dell'antrace mi sembra un po' ingenerosa. Più benevolmente > > Perché dovremmo essere benevoli con questa gente? > > Io direi piuttosto che dovremmo essere estremamente severi. > > > > potremmo convenire che si tratta di prodotti il cui uso va normato, > come > > quello di tutti gli altri. > > Su questo siamo assolutamente d'accordo: dovremmo normarli come normiamo > le droghe pesanti, come cocaina e allucinogeni, che producono (a livello > individuale) effetti paragonabili a quelli dei prodotti citati (a > livello sociale e collettivo). > > > Per usare una facile metafora: per evitare gli incidenti > > stradali non è ragionevole vietare la produzione di automobili, dobbiamo > > però far rispettare i limiti di velocità e perseguire severamente chi li > > eccede. > > Splendido esempio. > > E dovremmo anche arrestare per omicidio i consigli di amministrazione > delle auto a guida autonoma che causano incidendi mortali. > > Quando il consiglio di ammistrazione di Uber verrà arrestato per > l'omicidio di Elain Herzberg, potremo brindare insieme. > > > > Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la > sua > > ordinarietà. Certe narrazioni manipolatrici e interessate di aziende > grandi > > e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la > > pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere > > questo :-) > > Non so cosa sia un tecno-intellettuale gramsciano. > > Ma dubito che Gramsci apprezzerebbe questa accozzaglia di argomenti > fantoccio in difesa della nuova tecnologia oppressiva dei padroni. ;-) > > > > D'altro canto, Daniela porta una asprissima critica ad un mondo > intellettuale (o forse tecno-intellettuali) che prende i soldi > dell'industria per svilupparne e diffonderne la propaganda > attraverso narrazioni che la giustifichino. > > > Ne è un esempio perfetto l'articolo che hai pubblicato sul Manifesto > > > PS colgo l'occasione per segnalarvi un mio articolo che potrebbe > > interessarvi: Serve Wittgenstein per capire ChatGPT > > <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il > > Manifesto) > > Il declino della stampa, la totale scomparsa di qualsiasi senso > critico, mi lascia sempre allibito. > > > "Al di là della responsabilità legale dell'esercizio di tali sistemi" > > Nessuno che abbia riletto il tuo testo prima di pubblicarlo si è > chiesto: "perché 'al di là'? non è una responsabilità fondamentale?" > > "chi si impegna quando l'automa parla? La risposta breve è: nessuno." > > Nessuno che abbia riletto il tuo testo si è chiesto chi si è impegnato > a programmamarlo quell'automa che parla? Si è programmata da sola? > Si è accesa da sola? Si paga le bollette da sola? > > > Ma soprattutto, nessuno in una testata storica come il Manifesto è stato > capace di chiedersi "Cui prodest?" > > > > > Questa seconda parte dell'articolo di Daniela mi sembra molto > interessante per Nexa: nessun commento sulla cattura culturale in corso? > > Daniela ne analizza i diversi strumenti retorici: > > - il principio di inevitabilità tecnologica > - il principio di innovazione > - la prospettiva soluzionistica > - l'antropomorfizzazione delle macchine a la deumanizzazione delle > persone > - i miti dell'eccezionalismo tecnologico e del vuoto giuridico > - gli allarmi su rischi e pericoli tratti dal futuro o dalla > fantascienza > - i messianesimi eugenetici > > > si tratta di narrazioni finalizzate alla conquista di una nuova > egemonia culturale, che deve essere sposata acriticamente. > > > La successiva trattazione dell'aspetto normativo è, secondo me, > ineccepibile: > > > L'eventuale impossibilità di risalire alla responsabilità dovrebbe > > perciò essere assimilata giuridicamente, anziché a un rebus > > filosofico, a una forma di negligenza del produttore. > > Non sono sicuro che la categoria della negligenza sia appropriata, > onestamente (il dolo è evidente), ma di certo non c'è alcun rebus > filosofico in atto, solo fumo negli occhi (evidentemnte ricco di THC) > > > Credo che, passato l'effetto del fumo, una lucida lettura > dell'articolo di Daniela potrebbe di grande aiuto ai pochi > politici che non si vogliano far manipolare dall'industria. > > > Speriamo abbia ampia diffusione. > > > Giacomo > >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa