Il governo USA ha chiesto ad Adobe di realizzare uno strumento di contromisura alle modifiche realiz
Confesso che non avevo idea di cosa fosse lo strumento "liquify" di Photoshop, né a cosa servisse. Per chi non lo sapesse, è uno strumento che consente di modificare zone di un'immagine espandendole come se fossero liquide. E' più difficile spiegare come funziona il tutto che vederlo in un video, per cui potete vedere come funziona qui sotto:
Si potrebbero dire tante cose sull'inganno e sulla manipolazione in fotografia, è sempre esistita e infatti c'è chi ha scritto libri specifici sull'argomento, come Photo Fakery: A History of Deception and Manipulation, di Dino Brugioni (esperto della CIA e fondatore del Agency's National Photographic Interpretation Center) che potete acquistare su Amazon.
Il problema di questo tipo di modifiche è che ingannano il loro stesso autore. Il risultato è realistico, e l'inganno così sottile da risultare difficilmente percepibile, per cui la tentazione di utilizzare un simile strumento è forte, lo capisco.
Il problema è che non è affatto etico; non riesco ad immaginare uno scenario in cui cambiare i connotati alla persona ritratta possa risultare etico. Per lo stesso motivo non riesco a tollerare i vari filtri "beautify" o "ritratto" sui cellulari.
Un conto è il controllo che l'autore di una fotografia può avere sulle luci, sulla posa, sull'inquadratura, o le piccole modifiche che si possono fare in postproduzione per eliminare elementi di disturbo; totalmente diverso è cambiare letteralmente i connotati o l'espressione del volto del soggetto. La foto finisce per non rappresentare più una persona reale, o l'espressione naturale che aveva in un dato momento, ossia il motivo per cui si suppone sia stata scattata la foto. E' quello il senso di un ritratto.
Se la foto di una modella viene ritoccata come nel video che avete appena visto poi, per modificarne le curve perché il prodotto finale non deve essere il ritratto di una donna in particolare ma piuttosto di una donna ideale, subentrano tutta un'altra serie di considerazioni etiche.
Il problema è che viviamo immersi in un mondo di immagini che non rappresentano la realtà ma la interpretano e la ricreano plasmandola, e determinando nuovi fatti e situazioni a distanza nello spazio e nel tempo.
Riempire il nostro futuro di immagini modificate in cui è impossibile riconoscere l'oggetto della modifica, o in cui è impossibile verificare la presenza stessa della modifica, temo costituisca una sorta di inquinamento visivo di cui un giorno potremo essere chiamati a render conto. Va contro l'essenza stessa della fotografia.
Evidentemente la cosa preoccupa anche la difesa degli stati uniti, la quale ha finanziato alla stessa Adobe e all'università di Berkeley un progetto chiamato MediFor (Media Forensic) per cercare di "riequilibrare il campo da gioco delle tecnologie di immagine digitale"; allo stato attuale dei fatti sarebbe troppo facile falsificare un'immagine, e non esisterebbe uno strumento integrato di analisi per rilevare eventuali modifiche.
La stessa Adobe ha sviluppato perciò le contromisure che potete vedere nel filmato qui sopra, ovvero una intelligenza artificiale in grado di individuare con una efficienza del 99% le aree di un'immagine che siano state sottoposte a modifica con lo strumento "liquify", e di ripristinare entro certi limiti l'immagine originale.
Un osservatore umano allenato percepisce che è avvenuta una manipolazione nell'immagine solamente nel 53% dei casi. L'intelligenza artificiale realizzata da Adobe e Berkeley riesce ad individuare anche l'area oggetto della manipolazione, realizzando una specie di mappa termografica che poi consente di ricostruire l'immagine originale entro certi limiti.
E' impressionante notare nel video quanto siano realistiche le modifiche e al tempo stesso difficili da percepire. Le modifiche a volte si limitano all'espressione, mentre altre modificano completamente i connotati della persona ritratta, ed è evidente il motivo per cui l'argomento è considerato di interesse per la sicurezza nazionale USA.