Buongiorno Enrico, mi prendo la libertà di riorganizzare i paragrafi della tua riposta così da riportarli "in context" al quale /credo/ tu stia rispondendo, per maggior efficacia comunicativa.
Enrico Nardelli <narde...@mat.uniroma2.it> writes: > Il 05/02/2024 19:23, 380° ha scritto: >> Buonasera Enrico, >> >> premetto che sto rispondendo "a caldo" e non ho letto la notizia, spero >> io non mi stia perdendo qualche "dettaglio" importante. >> Enrico Nardelli<narde...@mat.uniroma2.it> writes: > Perdonami, ma sarebbe bene leggere ciò che viene segnalato, prima di > rispondere, altrimenti temo che non facciamo molti passi avanti in > termini di comunicazione. perdonami tu, ho avuto la presunzione di aver in qualche modo intuito dove l'articolo che hai citato della CNN [1] andasse a parare, letto lo stralcio che avevi riportato; ora ho avuto modo di leggerlo tutto >> Parto dalla fine: il deepfake e il copyright sono l'ultimo dei problemi >> con l'AI; non fermiamoci alla pagliuzza nell'occhio, guardiamo la trave. > 1) Né la notizia che ho segnalato né il mio post di commento sostenevano > la posizione che il deepkafe (o il copyright) fossero i problemi più > importanti dell'AI. alla notizia della CNN torno tra poco, piuttosto ti chiedo scusa perché non ho specificato che il mio commento sopra non riguardava il tuo articolo di commento ma /solo/ quello che avevo *presunto* di capire dove voleva andare a parare l'articolo [1] questo significa anche che sono andato OT, visto che l'oggetto della tua email cita il titolo del tuo articolo e non quello della CNN in merito alla notizia [1], cito alcuni stralci: --8<---------------cut here---------------start------------->8--- Authorities are increasingly concerned at the damaging potential posed by artificial intelligence technology. [...] On at least 20 occasions, AI deepfakes had been used to trick facial recognition programs by imitating the people pictured on the identity cards, according to police. Authorities across the world are growing increasingly concerned at the sophistication of deepfake technology and the nefarious uses it can be put to. --8<---------------cut here---------------end--------------->8--- quindi sono stato presuntuoso ma avevo perfettamente intuito dove l'articolo sensazionalistico voleva andare a parare. lo dico in un alro modo: le "Authorities" NON sono preoccupate delle "allucinazioni" dell'AI, sono preoccupate perché semplificano i "fake". >>> da cui la mia riflessione: «i soli avvenimenti ai quali potremo davvero >>> credere in futuro saranno quelli che avverranno alla nostra >>> presenza» da cui le mie riflessioni sotto, ovvero che è da molti anni che le persone devono stare attenti a credere anche agli avvenimenti che vivono di persona [...] >> In ogni caso, anche senza scomodare gli Ocean's Eleven o lo scherzo >> delle spie - opz comici - russe a Giorgia Meloni, putroppo sono >> all'ordine del giorno truffe **in presenza**, di cui spesso sono vittime >> persone anziane: finti appartenenti alle forze dell'ordine, finti addetti >> delle aziende municipalizzate, finte vittime di urti con gli specchietti >> delle auto... «il visagista delle dive è truccatissimo» (cit.). >> >> Quindi: ma davvero un "financial officier" sgancia 25 milioni... sulla >> parola?!? Che razza di processi di gestione implementano le grandi >> imprese... e le istituzioni finanziarie?!? > 2) Non è stato il CFO a pagare i 25 M$ ma un impiegato che è stato > indotto a farlo da una videocall collettiva in cui TUTTI (incluso il > CFO) erano deepfake. OK ho sbagliato, non era il CFO; il resto della situazione mi era già chiarissima, tranne il dettaglioi un fondamentale dettaglio: --8<---------------cut here---------------start------------->8--- Initially, the worker suspected it was a phishing email, as it talked of the need for a secret transaction to be carried out. --8<---------------cut here---------------end--------------->8--- cioè il sistema di gestione della posta usato da quell'azienda NON è in grado di segnalare chiaramente una email di phishing (SFP e DKIM?!?) ribadisco che il deepfake in questo contesto è davvero l'ultimo dei loro problemi. [...] >>> presentata qua >>> https://www.startmag.it/innovazione/intelligenza-artificiale-generativa-rischi/ >> ...mi manca, vado a leggere! ora l'ho letto > Il mio scopo era richiamare l'interesse sull'aspetto sociologico ed > epistemologico della questione. in merito all'aspetto epistemologico --8<---------------cut here---------------start------------->8--- l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano [...] però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerla lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina». --8<---------------cut here---------------end--------------->8--- (n.d.r.: IAG = Intelligenza Artificiale GENERATIVA, non Generale) davvero ritieni che l'IAG automatizzi le capacità /intellettive/ dell'essere umano? Non scrivi: imita, fa credere, sintetizza attraverso complessi algoritmi le capacità intellettive dell'essere umano sono attività meccaniche (o anche solo matematicamente descrivibili)? considerati (quello che ho compreso io de) i tuoi interventi in lista io non credo che tu lo pensi, ma il brano citato sopra si presta a (mis)interpretazioni, nonostante il richiamo a Eliot per collegarmi all'episodio di cui sopra: quell'impiegato è "usato" (o agisce come se fosse) una macchina e quindi è sostituibile da una IAG che svolga i suoi compiti, compreso quello di adottare adeguati controlli al fine di non essere truffato? > Dopo una pandemia che ha costretto tutti a tappe molto forzate a > spostare molte interazioni sul piano digitale, inizia ad emergere che > forse ci sono anche parecchi elementi negativi in questa > dematerializzazione delle relazioni umane. no, è ESATTEMENTE l'opposto: quello che /grazie/ al "piano digitale" (compresa la IAG) sta emergendo in modo incontrovertibile è che il contesto economico-sociale nel quale si sviluppano le relazioni DETERMINA la loro eventuali disumanizzazione o (ri)umanizzazione NON è lo sviluppo tecnologico che determina chi ha «i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente» (cito dal tuo aticolo), è l'opposto. ...e non è che "i mezzi" sono scarsi, è *semplicemente* che sono MONOPOLIZZATI. > Da cui ho speculato nel mio post che in futuro, visto che la specie > umana mi pare intelligente e resiliente, ci sarà un recupero del livello > fisico nelle relazioni. --8<---------------cut here---------------start------------->8--- [...] non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia. Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza. Si tratta di un ritorno all’antico che spero impareremo a riapprezzare, [...] --8<---------------cut here---------------end--------------->8--- Comprendo l'auspicio di un "ritorno" alle radici della fiducia, ma non condivido affatto la constatazione (come possiamo definirla?) che solo di persona possiamo ottenere un rapporto fiducia. Che "il digitale" così com'è faccia TECNICAMENTE schifo non vi sono dubbi, la soluzione però non può che essere tecnica: ci vuole un "ecosistema digitale" migliore. Scusa se mi ripeto ma un esempio di implementazione è https://www.gnunet.org/en/ Una nota a latere: nel brano sopra usi più volte il concetto di "certificazione" (che per sua natura è di una terza parte) come elemento fondamentale di questa "catena di fiducia", io dissento: il problema è "solo" la possibilità di gestire in modo tecnicamente sano la propria identità digitale: https://www.gnunet.org/en/reclaim/index.html --8<---------------cut here---------------start------------->8--- Si tratta di un ritorno all’antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l’azione di “sapere” (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l’azione di “vedere” (io vedo = ὁράω). Quindi, “io so” perché “io ho visto”, in prima persona. --8<---------------cut here---------------end--------------->8--- "io so" perché "io ho visto" o perché "io ho compreso"? :-D questa pagina di etimo esprime molto bene la "fisicità del sapere": https://www.etimo.it/?term=sapere saluti, 380° [1] https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
signature.asc
Description: PGP signature
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa