DEEP FAKE – LUCI E OMBRE NELL’EPOCA DELL’APPROPRIAZIONE INDEBITA DEI VOLTI 21 Gennaio 2022 – Pubblicato in: imperfezioni

Aldo Baglio è Frank Sheeran, lo spietato mafioso protagonista di The Irishman. Silvio Berlusconi fa le scarpe a Jack Nicholson e gli ruba il ruolo di Jack Torrance, il folle protagonista di The Shining del sempiterno Stanley Kubrick.
È un sogno (o un incubo)? No.
È una visione perversa frutto di una fervida immaginazione? In parte.
È per caso Deep Fake? Esatto. Deep Fake, ovvero la tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali. Insomma, un software capace di riconoscere i volti e di sostituirli così precisamente che spesso, molto spesso, non si riesce a distinguere il vero dal falso – se ancora si può parlare di Vero e Falso -.
Badate bene che non stiamo parlando di semplici fotomontaggi, nessun vecchio e caro ctrlC + cntrlV, bensì video o foto che vengono realizzati manipolando il volto e la voce di una persona; veri e propri contenuti inediti frutto dell’intelligenza artificiale.
Per farvi un’idea, guardate il video in cui il grande Jim Meskimen non solo imita molte star del cinema ma, con l’aiuto del Deep Fake, diventa fisicamente quelle star del cinema. Il risultato è impressionante e sottolinea sì la bravura di Meskimen ma soprattutto mette in luce le ombre e le potenzialità che stanno dietro a questa tecnica basata sull’apprendimento automatico.

C’è della bellezza in tutto questo? Sì, c’è, ma c’è anche e soprattutto dell’inquietudine. Perché? Beh, provate ad immaginare questa situazione: un hacker riesce a trovare vostre foto e video (cosa non così improbabile nel mondo d’oggi, no?) e le dà in pasto a questo robot che le prende e crea un video che vi ritrae mentre dite e fate cose che non avete mai detto o fatto e che neppure avete mai pensato di dire o fare. Un video fake, certo, ma ciò non toglie che chiunque lo guarderà potrebbe credere che sia vero. È chiaro, di voi non frega niente a nessuno, non offendetevi, ma pensate se lo stesso processo venisse applicato a politici, a persone famose o… a Giovanni Storti. Beh, il Giovannino-Voldemort è molto bello e divertente in effetti, ma torniamo ai politici e alle persone influenti.
Nel 2017 è diventato virale, scatenando un fervente dibattito politico, un video in cui l’ex presidente degli Stati Uniti Barack Obama dichiara che il suo rivale Donald Trump è, testuali parole, “un totale e completo imbecille”. È molto probabile che Barack, in cuor suo, lo pensi veramente, ma ovviamente questa dichiarazione non è mai stata fatta. Sorte analoga è toccata anche alla Cancelliera Federale della Germania Angela Merkel, al Presidente argentino Mauricio Macri e all’ormai ex Presidente statunitense Trump. Si capisce bene che le ripercussioni sociali ed economiche sono di proporzioni catastrofiche, quasi quanto i capelli dello stesso… va beh, avete capito.

Oltre a quelle sociali ed economiche non si possono non considerare le ripercussioni psicologiche nel caso in cui questi fake video iperrealistici ledano la persona. Non siamo brava gente, lo sapete no? Ogni nuovo strumento, ogni nuova tecnologia che l’uomo ha inventato è stata da sempre – e per sempre, temo- utilizzata contro l’uomo stesso e contro la sua dignità d’essere umano. Non è un caso infatti che uno dei primi ambiti in cui è stato impiegato il Deep Fake sia quello della pornografia e del revenge porn, pratica talmente diffusa che ha conquistato un proprio termine specificio: Deepnude.
Il termine “deepfakes” è nato infatti alla fine del 2017 da un utente di Reddit chiamato proprio “deepfakes.”, il quale, così come tanti altri utenti nella sezione r/deepfakes di Reddit, condividevano video in cui venivano scambiati i volti delle celebrità con quelli di attrici in video pornografici. Emma Watson, Ariana Grande, Katy Perry, Taylor Swift e Scarlett Johansson sono solo alcune delle molte star a cui è stato rubato il volto per la produzione di pornografia involontaria.
Reddit, Twitter, Pornhub e altri siti hanno ovviamente bannato i contenuti pornografici Deep Fake, ma la tecnologia va avanti, evolve e migliora, e molti dei bug nei video falsi sono stati risolti rendendo quest’ultimi sempre più difficili da distinguere dai contenuti reali. E, tornando al fatto che non siamo così brave persone, sappiate che moltissime comunità online continuano a condividere pornografia su piattaforme che hanno deciso di non bannare la pornografia Deep Fake.
Me ne rendo conto: ogni narratore che si rispetti dovrebbe creare una linea narrativa in cui bene e male sono bilanciati. Eccovi quindi, per risollevare le sorti e il morale di questo articolo, un Overlook Hotel popolato da politici italiani.

La manipolazione di immagini e video tramite l’uso dell’intelligenza artificiale è quindi uno strumento utile a creare cose fantastiche, tipo Matteo Renzi dotato del potere della Luccicanza, ma anche un pericoloso fenomeno che non è da considerarsi di tipo tecnico, bensì etico.
I problemi legati al deepfake sono infatti il risultato di una condotta riprovevole dell’uomo che mira consapevolmente a ledere la dignità del singolo e a minare la fiducia nell’informazione, mettendo in dubbio la veridicità di ciò che conosciamo e facendo così implodere la verità in se stessa.
Ci attende dunque un’epoca in cui non sarà più possibile determinare ciò che è vero? Ma poi: abbiamo mai vissuto un’epoca in cui è stato possibile tracciare un solco tra il vero e il falso?
Lungi da me fare la morale e ammorbarvi con la mia etica spiccia, vi propongo di godervi questo video in cui un giovanissimo e inquietante Silvester Stallone veste i panni di quel famoso bambino che, un giorno, perse l’aereo. Perché sì, signore e signori: se c’è dell’ombra significa che, seppur timido e fievole, da qualche parte deve esserci un raggio di luce.
E a noi prendere il sole piace tantissimo.



« Bravǝ, bravǝ. Ma non basta!
RUDOLPH HA PRESO FUOCO »