<https://attivissimo.blogspot.com/2023/03/podcast-rsi-midjourney-5-le-foto.html≥
ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il
Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso
www.rsi.ch/ildisinformatico.
---
[CLIP: “Hai mai messo in dubbio la natura della tua realtà?” dalla serie TV
Westworld]
Pochi giorni fa è stata presentata la nuova versione di Midjourney, un software
di generazione di immagini tramite intelligenza artificiale che finalmente
produce immagini fotorealistiche sintetiche sostanzialmente indistinguibili
dalle fotografie reali, prive dei difetti tipici delle foto sintetiche offerte
sinora.
Immagine generata da @VickijEth con Midjourney 5.
Questo spalanca le porte a un’ondata di fake news, di notizie false
accompagnate e rinforzate da immagini che sembrano documentare, con la potenza
emotiva tipica delle fotografie, degli eventi che in realtà non sono mai
accaduti.
Per muoverci in questo strano, nuovo mondo dovremo imparare nuovi strumenti e
dovremo abituarci, come i protagonisti della serie televisiva Westworld, a
mettere in dubbio anche noi la natura della nostra realtà.
Benvenuti alla puntata del 24 marzo 2023 del Disinformatico, il podcast della
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Le notizie false, e le foto false usate per renderle più credibili, non sono
certo una novità. Le prime fotografie alterate per “documentare” eventi mai
avvenuti o per creare immagini di propaganda risalgono al 1860: due celebri
foto del presidente statunitense Lincoln e del generale Grant furono fabbricate
mettendo le rispettive teste sui corpi di altre persone.
Una fake news fotografica diffusa intorno al 1860 mostra il generale Grant in
posa a cavallo, ma solo la testa è sua e proviene da un’altra foto.
Nella prima metà del secolo scorso, Stalin e Mao Tse-Tung avevano l’abitudine
di far rimuovere dalle fotografie ufficiali le persone cadute in disgrazia.
Governi, famiglie reali e testate giornalistiche hanno spesso pubblicato
immagini falsificate o pesantemente alterate. Ma nell’epoca pre-digitale queste
manipolazioni richiedevano tempo e talento e lasciavano tracce vistose,
facilmente riconoscibili anche a un occhio poco allenato.
Diffondere una fake news accompagnata da immagini di supporto, insomma,
comportava un investimento alla portata di pochi. Con la digitalizzazione delle
immagini queste manipolazioni sono diventate meno impegnative, ma sono rimaste
comunque rilevabili da un occhio attento. Risoluzioni differenti delle varie
parti dell’immagine, ombre orientate in modo sbagliato, pose innaturali erano i
sintomi più frequenti di queste falsificazioni.
Con il passare del tempo e l’evoluzione della tecnologia, insomma, il costo di
realizzazione è sceso progressivamente, mentre il realismo è aumentato ed è
diventato sempre più difficile accorgersi delle alterazioni fotografiche. Ma il
costo è rimasto significativo, per cui i fabbricanti di fake news si sono
dovuti accontentare di usare foto reali tolte dal loro contesto originale:
abbastanza efficaci, certo, ma blande e generiche, e soprattutto smentibili
usando servizi come la ricerca per immagini di Google oppure Tineye.com che ne
trovino la datazione e la provenienza originaria degli elementi usati per
comporre la foto artefatta.
Il recente arrivo dei generatori di immagini basati su software di intelligenza
artificiale e machine learning, come Dall-E o Stable Diffusion, e delle
applicazioni di deepfake ha migliorato ulteriormente il realismo ma non ha
risolto la questione del costo: i deepfake ben fatti richiedono potenza di
calcolo e soprattutto un archivio personalizzato di immagini della persona che
si vuole simulare, mentre le immagini fotorealistiche prodotte dai generatori
di immagini hanno difetti ben riconoscibili con un pizzico di allenamento, come
la forma mostruosa e incoerente delle mani delle persone, gli occhi spaiati e
disallineati o i denti totalmente implausibili.
Ma tutto questo è cambiato con la versione 5 del generatore di immagini
Midjourney, uscita il 15 marzo scorso, che partendo da una semplice descrizione
testuale della foto desiderata produce immagini fotorealistiche false con luci
e ombreggiature coerenti e con mani e occhi perfetti.
Immagini generate da @per_arneng con Midjourney 5.
Immagine generata da @AcidMurphy con Midjourney 5.
Immagine generata da @TheCartelDel con Midjourney 5.
Immagini sintetiche dell’astronauta canadese Chris Hadfield generate da @azatht
con Midjourney 5.
È giunto alla fine il momento, atteso ma non per questo meno spiazzante, di
mettere in dubbio la natura della realtà di qualunque fotografia.
Lo si è visto subito, molto concretamente, quando Elliot Higgins, fondatore e
direttore del collettivo internazionale d’indagine giornalistica Bellingcat, ha
pubblicato su Twitter le foto dell’arresto dell’ex presidente degli Stati Uniti
Donald Trump, viste in poche ore da alcuni milioni di persone.
“Trump arrestato, ci sono le foto!”
Sì, avete sentito bene: sono state pubblicate delle foto dell’arresto di Trump,
che però non è avvenuto, perlomeno al momento in cui chiudo questo podcast. Le
fotografie lo mostrano attorniato da poliziotti, mentre si divincola, con una
manica della giacca strappata, corre inseguito dagli agenti, e infine siede
sconsolato in una cella sporca e illuminata da una luce fredda e cupa.
L
Ma nessuna di queste immagini è reale: sono state tutte generate da Higgins
usando Midjourney versione 5.
Higgins non le ha contrassegnate sovrapponendo scritte o avvertenze per
avvisare che si tratta di immagini sintetiche, anche se ha scritto nel suo
tweet iniziale che si trattava di immagini generate, e per il momento è
abbastanza facile capire che sono false semplicemente perché descrivono un
evento che nessuna fonte giornalistica, pro o contro Trump, ha confermato. Ma
per le tante persone che si “informano”, per così dire, usando soltanto i
social network o i forum di “informazione alternativa”, queste fotografie
rischiano di essere credibili e di soffiare sul fuoco di Qanon e di altre
organizzazioni complottiste e violente.
Dal 15 marzo scorso, insomma, non possiamo più fidarci di qualunque foto
trovata online, perché esiste un modo facile e a buon mercato per generare
migliaia di fotografie false ma estremamente credibili di qualunque persona o
evento, reale o di fantasia. Foto che non possono essere smascherate dalla
ricerca per immagini, visto che non sono realizzate componendo porzioni di
immagini preesistenti, e che possono essere composte con estrema precisione, su
misura, per esempio per screditare un avversario politico o appunto per
generare fiumi di fake news su qualsiasi argomento.
Il costo irrisorio della produzione di queste immagini, combinato con la
generazione automatica di infiniti testi su misura offerta da ChatGPT e simili,
rende possibile un vero e proprio artigianato della disinformazione. Chiunque,
con un minimo di competenza informatica, può creare e diffondere notizie false,
corredate da fotografie estremamente convincenti, e guadagnare attraverso la
pubblicità online incorporata in queste notizie. Tutti possiamo diventare
bugiardi bottegai delle bufale, imprenditori dell’impostura, falsari
fotografici provetti che avrebbero suscitato l’invidia di tanti governi e
dittatori.
In un certo senso, Midjourney 5 è la democratizzazione definitiva della
disinformazione. È anche la giustificazione perfetta per chiunque venga
fotografato in situazioni imbarazzanti o illegali: gli basterà dire che la foto
è falsa e generata dal computer per seminare il dubbio. Per contro, potrebbe
anche essere la salvezza di chi viene ricattato con la minaccia di pubblicare
foto intime, perché potrebbe liquidarle come produzioni sintetiche di
Midjourney.
Per il momento, non c’è assolutamente nulla che impedisca l’uso di Midjourney
in questo modo. Certo, le sue condizioni d’uso vietano immagini o prompt che
siano “intrinsecamente mancanti di rispetto, aggressive o altrimenti causa di
abusi”, e molti social network, come TikTok, richiedono che tutte le immagini
falsificate fotorealistiche siano chiaramente indicate come tali, ma si tratta
solo di raccomandazioni. E ci sono servizi come HiveModeration.com che cercano
di riconoscere le foto sintetiche realistiche tramite sofisticate analisi
matematiche, che rivelano dettagli ed errori che sfuggono all’occhio umano, ma
non sono perfetti e poche persone li conoscono e meno ancora li usano.
HiveModeration riconosce correttamente una foto sintetica.
Ma anche se tutti i generatori di immagini riuscissero a implementare regole e
filtri infallibili contro la creazione di foto false e fuorvianti, ormai questi
software possono essere installati su personal computer di fascia medio-alta,
sfuggendo a qualunque regola o controllo. Stable Diffusion e Dreambooth possono
essere addestrati a generare, su uno di questi personal computer, immagini
fotorealistiche false di qualunque persona della quale si abbia un buon numero
di foto del volto.
Sono false anche le mie foto
In teoria ci sarebbe una difesa perfetta contro queste falsificazioni:
controllare le fonti. Se una fotografia non è autenticata da una fonte
attendibile, non va creduta. Il problema è che le fonti attendibili, come per
esempio le testate giornalistiche, si sono già lasciate ingannare in passato da
foto false, anche nell’era pre-Midjourney, e hanno pubblicato immagini
artefatte come quelle del cadavere di Osama bin Laden o della candidata alla
Casa Bianca Sarah Palin. La voglia di scoop ha avuto la meglio sul metodo
giornalistico, che richiede di usare solo foto di provenienza accertata.
C’è anche un altro problema decisamente inaspettato. Se non ci si può più
fidare delle foto fatte da altri, perlomeno sembra logico potersi fidare delle
foto fatte da noi. Ma non è così, perché è emerso che alcuni smartphone di
Samsung falsificano le fotografie. Lo fanno specificamente nel caso delle foto
fatte alla Luna, che è un soggetto particolarmente difficile da fotografare
senza una fotocamera professionale. Samsung, infatti, ha ammesso che alcuni
suoi modelli di smartphone sostituiscono la Luna fotografata con una sua
immagine migliore che hanno in memoria. E non è l’unico caso, visto che era già
successo con Huawei nel 2019.
Molti smartphone, inoltre, includono filtri e correzioni automatiche di cui
spesso l’utente è inconsapevole: smorzano le imperfezioni della pelle e
riorientano lo sguardo, per esempio. I puristi dicono che da sempre la
fotografia è finzione, ma l’idea che una fotocamera sostituisca arbitrariamente
parti dell’immagine è un livello di falsificazione nuovo, che va considerato
con molta cautela.
Ci salvano i video. Almeno per ora
Oltre al controllo delle fonti, c’è anche un altro rimedio al fiume di falsi
reso possibile da Midjourney 5: affidarsi ai video. È relativamente facile
falsificare in modo fotorealistico una singola immagine fissa, ma non è
altrettanto facile falsificare un video. Naturalmente esistono da tempo gli
effetti speciali e gli effetti visivi digitali, ma realizzarli in modo perfetto
in un video è estremamente oneroso e limitante.
Ma anche questa barriera sta crollando rapidamente. Runway Research ha
presentato da poco Gen-2, un servizio online che genera interi video partendo
da una descrizione testuale oppure da una singola foto. Per ora è limitato a
durate di tre secondi ed è abbastanza rudimentale, ma lo era anche Midjourney
solo pochi mesi fa. E un altro software, ModelScope, fa la stessa cosa di Gen-2
ma su un buon personal computer.
Gen-2 e ModelScope potrebbero essere l’inizio di un nuovo modo di fare cinema,
nel quale non servono più budget colossali, scenografie e attori, ma solo e
soprattutto idee interessanti. Ma l’esistenza di questi software per i falsi
video low-cost significa che anche i video non possono essere più considerati
prova oggettiva, a meno che siano autenticati da fonti estremamente attendibili
e magari multiple.
Mai come oggi, insomma, servono persone esperte e affidabili che sappiano usare
gli strumenti informatici moderni per verificare le notizie e le immagini che
le accompagnano; servono giornalisti e redazioni al passo con i tempi digitali
sempre più straordinari. Altrimenti anche noi, come gli androidi di Westworld,
non sapremo più cosa è reale e cosa è sintetico, e dovremo mettere in dubbio la
natura della nostra realtà
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa