<https://attivissimo.blogspot.com/2023/03/podcast-rsi-midjourney-5-le-foto.html≥

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il 
Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso 
www.rsi.ch/ildisinformatico.

---

[CLIP: “Hai mai messo in dubbio la natura della tua realtà?” dalla serie TV 
Westworld]

Pochi giorni fa è stata presentata la nuova versione di Midjourney, un software 
di generazione di immagini tramite intelligenza artificiale che finalmente 
produce immagini fotorealistiche sintetiche sostanzialmente indistinguibili 
dalle fotografie reali, prive dei difetti tipici delle foto sintetiche offerte 
sinora.
Immagine generata da @VickijEth con Midjourney 5.

Questo spalanca le porte a un’ondata di fake news, di notizie false 
accompagnate e rinforzate da immagini che sembrano documentare, con la potenza 
emotiva tipica delle fotografie, degli eventi che in realtà non sono mai 
accaduti.

Per muoverci in questo strano, nuovo mondo dovremo imparare nuovi strumenti e 
dovremo abituarci, come i protagonisti della serie televisiva Westworld, a 
mettere in dubbio anche noi la natura della nostra realtà.

Benvenuti alla puntata del 24 marzo 2023 del Disinformatico, il podcast della 
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane 
dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Le notizie false, e le foto false usate per renderle più credibili, non sono 
certo una novità. Le prime fotografie alterate per “documentare” eventi mai 
avvenuti o per creare immagini di propaganda risalgono al 1860: due celebri 
foto del presidente statunitense Lincoln e del generale Grant furono fabbricate 
mettendo le rispettive teste sui corpi di altre persone.
Una fake news fotografica diffusa intorno al 1860 mostra il generale Grant in 
posa a cavallo, ma solo la testa è sua e proviene da un’altra foto.

Nella prima metà del secolo scorso, Stalin e Mao Tse-Tung avevano l’abitudine 
di far rimuovere dalle fotografie ufficiali le persone cadute in disgrazia. 
Governi, famiglie reali e testate giornalistiche hanno spesso pubblicato 
immagini falsificate o pesantemente alterate. Ma nell’epoca pre-digitale queste 
manipolazioni richiedevano tempo e talento e lasciavano tracce vistose, 
facilmente riconoscibili anche a un occhio poco allenato.

Diffondere una fake news accompagnata da immagini di supporto, insomma, 
comportava un investimento alla portata di pochi. Con la digitalizzazione delle 
immagini queste manipolazioni sono diventate meno impegnative, ma sono rimaste 
comunque rilevabili da un occhio attento. Risoluzioni differenti delle varie 
parti dell’immagine, ombre orientate in modo sbagliato, pose innaturali erano i 
sintomi più frequenti di queste falsificazioni.

Con il passare del tempo e l’evoluzione della tecnologia, insomma, il costo di 
realizzazione è sceso progressivamente, mentre il realismo è aumentato ed è 
diventato sempre più difficile accorgersi delle alterazioni fotografiche. Ma il 
costo è rimasto significativo, per cui i fabbricanti di fake news si sono 
dovuti accontentare di usare foto reali tolte dal loro contesto originale: 
abbastanza efficaci, certo, ma blande e generiche, e soprattutto smentibili 
usando servizi come la ricerca per immagini di Google oppure Tineye.com che ne 
trovino la datazione e la provenienza originaria degli elementi usati per 
comporre la foto artefatta.

Il recente arrivo dei generatori di immagini basati su software di intelligenza 
artificiale e machine learning, come Dall-E o Stable Diffusion, e delle 
applicazioni di deepfake ha migliorato ulteriormente il realismo ma non ha 
risolto la questione del costo: i deepfake ben fatti richiedono potenza di 
calcolo e soprattutto un archivio personalizzato di immagini della persona che 
si vuole simulare, mentre le immagini fotorealistiche prodotte dai generatori 
di immagini hanno difetti ben riconoscibili con un pizzico di allenamento, come 
la forma mostruosa e incoerente delle mani delle persone, gli occhi spaiati e 
disallineati o i denti totalmente implausibili.

Ma tutto questo è cambiato con la versione 5 del generatore di immagini 
Midjourney, uscita il 15 marzo scorso, che partendo da una semplice descrizione 
testuale della foto desiderata produce immagini fotorealistiche false con luci 
e ombreggiature coerenti e con mani e occhi perfetti. 
Immagini generate da @per_arneng con Midjourney 5.
Immagine generata da @AcidMurphy con Midjourney 5.
Immagine generata da @TheCartelDel con Midjourney 5.
Immagini sintetiche dell’astronauta canadese Chris Hadfield generate da @azatht 
con Midjourney 5.

È giunto alla fine il momento, atteso ma non per questo meno spiazzante, di 
mettere in dubbio la natura della realtà di qualunque fotografia.

Lo si è visto subito, molto concretamente, quando Elliot Higgins, fondatore e 
direttore del collettivo internazionale d’indagine giornalistica Bellingcat, ha 
pubblicato su Twitter le foto dell’arresto dell’ex presidente degli Stati Uniti 
Donald Trump, viste in poche ore da alcuni milioni di persone.
“Trump arrestato, ci sono le foto!”

Sì, avete sentito bene: sono state pubblicate delle foto dell’arresto di Trump, 
che però non è avvenuto, perlomeno al momento in cui chiudo questo podcast. Le 
fotografie lo mostrano attorniato da poliziotti, mentre si divincola, con una 
manica della giacca strappata, corre inseguito dagli agenti, e infine siede 
sconsolato in una cella sporca e illuminata da una luce fredda e cupa.

L


Ma nessuna di queste immagini è reale: sono state tutte generate da Higgins 
usando Midjourney versione 5.

Higgins non le ha contrassegnate sovrapponendo scritte o avvertenze per 
avvisare che si tratta di immagini sintetiche, anche se ha scritto nel suo 
tweet iniziale che si trattava di immagini generate, e per il momento è 
abbastanza facile capire che sono false semplicemente perché descrivono un 
evento che nessuna fonte giornalistica, pro o contro Trump, ha confermato. Ma 
per le tante persone che si “informano”, per così dire, usando soltanto i 
social network o i forum di “informazione alternativa”, queste fotografie 
rischiano di essere credibili e di soffiare sul fuoco di Qanon e di altre 
organizzazioni complottiste e violente.

Dal 15 marzo scorso, insomma, non possiamo più fidarci di qualunque foto 
trovata online, perché esiste un modo facile e a buon mercato per generare 
migliaia di fotografie false ma estremamente credibili di qualunque persona o 
evento, reale o di fantasia. Foto che non possono essere smascherate dalla 
ricerca per immagini, visto che non sono realizzate componendo porzioni di 
immagini preesistenti, e che possono essere composte con estrema precisione, su 
misura, per esempio per screditare un avversario politico o appunto per 
generare fiumi di fake news su qualsiasi argomento.

Il costo irrisorio della produzione di queste immagini, combinato con la 
generazione automatica di infiniti testi su misura offerta da ChatGPT e simili, 
rende possibile un vero e proprio artigianato della disinformazione. Chiunque, 
con un minimo di competenza informatica, può creare e diffondere notizie false, 
corredate da fotografie estremamente convincenti, e guadagnare attraverso la 
pubblicità online incorporata in queste notizie. Tutti possiamo diventare 
bugiardi bottegai delle bufale, imprenditori dell’impostura, falsari 
fotografici provetti che avrebbero suscitato l’invidia di tanti governi e 
dittatori.

In un certo senso, Midjourney 5 è la democratizzazione definitiva della 
disinformazione. È anche la giustificazione perfetta per chiunque venga 
fotografato in situazioni imbarazzanti o illegali: gli basterà dire che la foto 
è falsa e generata dal computer per seminare il dubbio. Per contro, potrebbe 
anche essere la salvezza di chi viene ricattato con la minaccia di pubblicare 
foto intime, perché potrebbe liquidarle come produzioni sintetiche di 
Midjourney.

Per il momento, non c’è assolutamente nulla che impedisca l’uso di Midjourney 
in questo modo. Certo, le sue condizioni d’uso vietano immagini o prompt che 
siano “intrinsecamente mancanti di rispetto, aggressive o altrimenti causa di 
abusi”, e molti social network, come TikTok, richiedono che tutte le immagini 
falsificate fotorealistiche siano chiaramente indicate come tali, ma si tratta 
solo di raccomandazioni. E ci sono servizi come HiveModeration.com che cercano 
di riconoscere le foto sintetiche realistiche tramite sofisticate analisi 
matematiche, che rivelano dettagli ed errori che sfuggono all’occhio umano, ma 
non sono perfetti e poche persone li conoscono e meno ancora li usano.
HiveModeration riconosce correttamente una foto sintetica.

Ma anche se tutti i generatori di immagini riuscissero a implementare regole e 
filtri infallibili contro la creazione di foto false e fuorvianti, ormai questi 
software possono essere installati su personal computer di fascia medio-alta, 
sfuggendo a qualunque regola o controllo. Stable Diffusion e Dreambooth possono 
essere addestrati a generare, su uno di questi personal computer, immagini 
fotorealistiche false di qualunque persona della quale si abbia un buon numero 
di foto del volto.
Sono false anche le mie foto

In teoria ci sarebbe una difesa perfetta contro queste falsificazioni: 
controllare le fonti. Se una fotografia non è autenticata da una fonte 
attendibile, non va creduta. Il problema è che le fonti attendibili, come per 
esempio le testate giornalistiche, si sono già lasciate ingannare in passato da 
foto false, anche nell’era pre-Midjourney, e hanno pubblicato immagini 
artefatte come quelle del cadavere di Osama bin Laden o della candidata alla 
Casa Bianca Sarah Palin. La voglia di scoop ha avuto la meglio sul metodo 
giornalistico, che richiede di usare solo foto di provenienza accertata.

C’è anche un altro problema decisamente inaspettato. Se non ci si può più 
fidare delle foto fatte da altri, perlomeno sembra logico potersi fidare delle 
foto fatte da noi. Ma non è così, perché è emerso che alcuni smartphone di 
Samsung falsificano le fotografie. Lo fanno specificamente nel caso delle foto 
fatte alla Luna, che è un soggetto particolarmente difficile da fotografare 
senza una fotocamera professionale. Samsung, infatti, ha ammesso che alcuni 
suoi modelli di smartphone sostituiscono la Luna fotografata con una sua 
immagine migliore che hanno in memoria. E non è l’unico caso, visto che era già 
successo con Huawei nel 2019.

Molti smartphone, inoltre, includono filtri e correzioni automatiche di cui 
spesso l’utente è inconsapevole: smorzano le imperfezioni della pelle e 
riorientano lo sguardo, per esempio. I puristi dicono che da sempre la 
fotografia è finzione, ma l’idea che una fotocamera sostituisca arbitrariamente 
parti dell’immagine è un livello di falsificazione nuovo, che va considerato 
con molta cautela.
Ci salvano i video. Almeno per ora

Oltre al controllo delle fonti, c’è anche un altro rimedio al fiume di falsi 
reso possibile da Midjourney 5: affidarsi ai video. È relativamente facile 
falsificare in modo fotorealistico una singola immagine fissa, ma non è 
altrettanto facile falsificare un video. Naturalmente esistono da tempo gli 
effetti speciali e gli effetti visivi digitali, ma realizzarli in modo perfetto 
in un video è estremamente oneroso e limitante.

Ma anche questa barriera sta crollando rapidamente. Runway Research ha 
presentato da poco Gen-2, un servizio online che genera interi video partendo 
da una descrizione testuale oppure da una singola foto. Per ora è limitato a 
durate di tre secondi ed è  abbastanza rudimentale, ma lo era anche Midjourney 
solo pochi mesi fa. E un altro software, ModelScope, fa la stessa cosa di Gen-2 
ma su un buon personal computer.

Gen-2 e ModelScope potrebbero essere l’inizio di un nuovo modo di fare cinema, 
nel quale non servono più budget colossali, scenografie e attori, ma solo e 
soprattutto idee interessanti. Ma l’esistenza di questi software per i falsi 
video low-cost significa che anche i video non possono essere più considerati 
prova oggettiva, a meno che siano autenticati da fonti estremamente attendibili 
e magari multiple.

Mai come oggi, insomma, servono persone esperte e affidabili che sappiano usare 
gli strumenti informatici moderni per verificare le notizie e le immagini che 
le accompagnano; servono giornalisti e redazioni al passo con i tempi digitali 
sempre più straordinari. Altrimenti anche noi, come gli androidi di Westworld, 
non sapremo più cosa è reale e cosa è sintetico, e dovremo mettere in dubbio la 
natura della nostra realtà
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to