I deepfake, ossia i filmati fasulli creati dall’intelligenza artificiale (AI) sono sempre più diffusi (e convincenti). Ecco i motivi per cui dovremmo iniziare seriamente a preoccuparci.
Avete mai sentito Barack Obama definire Donald Trump un “completo idiota”? Oppure Mark Zuckerberg gongolare per il “controllo totale dei dati rubati a miliardi di persone” o le toccanti scuse di Jon Snow per il deprimente finale di Game of Thrones? Se non li avete ancora visti, vi siete persi qualcosa di davvero storico che sta accadendo nei meandri più remoti di internet.
L’equivalente del 21° secolo di Photoshopping, i deepfake sono creati con un tipo di intelligenza artificiale nota come deep learning. Tool che ha dato origine al termine “deepfake” per descrivere le immagini risultanti di eventi falsi.
Volete fare in modo che un politico o un attore noto dica qualcosa di completamente diverso, che sia protagonista del film dei vostri sogni o che balli come un professionista? Allora la tecnologia dietro deepfake può venirci in soccorso. Ma come tutti i nuovi strumenti con grandi poteri, è sempre meglio, all’inizio, maneggiarli con i guanti.
Table of Contents
Cosa sono i Deepfake e perchè esistono
Neanche a dirlo, una buona fetta di deepfake è a carattere pornografico. La società di intelligenza artificiale Deeptrace ha scoperto 15.000 video deepfake online nel settembre 2019. Con un aumento di quasi due volte rispetto ai nove mesi precedenti.
Ben il 96% erano pornografici e di questi il 99% sovrapponeva i volti di donne famose a quelli di pornostar. È ipotizzabile che le registrazioni false si estendano al di fuori dell’ambito delle celebrità e vengano utilizzate per alimentare il revenge porn, poiché le nuove tecnologie consentono a persone non esperte di costruire deepfakes con poche immagini. Una professoressa di diritto dell’Università di Boston, Danielle Citron, ha dichiarato che “la tecnologia Deepfake è un’arma contro le donne”. Oltre ai contenuti pornografici, c’è una grande quantità di parodia, satira e caos.
Non si tratta semplicemente di video
La tecnologia deepfake può partire da zero e generare fotografie che sembrano reali ma che in realtà sono completamente inventate. Molto probabilmente esisteva un deepfake sotto forma di un’inesistente scrittrice di Bloomberg di nome “Maisy Kinsley” che aveva un profilo su LinkedIn e Twitter. Un altro profilo falso su LinkedIn, noto come “Katie Jones”, affermava di essere impiegato presso il Center for Strategic and International Studies (CSIS). Tuttavia, si ritiene che “Katie Jones” sia un deepfake costruito allo scopo di condurre una raccolta di informazioni sensibili.
È anche possibile effettuare il deepfake audio, che consente di creare “skin vocali” o “cloni vocali” di personaggi famosi. Dopo essere stato chiamato da un artista della truffa che ha imitato la voce dell’amministratore delegato tedesco della società madre, il capo di una filiale britannica di una società energetica tedesca ha trasferito circa 200.000 sterline su un conto bancario in Ungheria nel marzo dello scorso anno. Gli assicuratori dell’azienda ritengono che la voce fosse un falso, ma le prove non sono evidenti. Secondo quanto riferito, i truffatori hanno anche sfruttato i messaggi vocali registrati inviati su WhatsApp nei loro schemi.
Come è nata questa tecnologia
Da tempo i ricercatori universitari e gli artisti che lavorano nelle aziende di effetti visivi spingono i limiti di ciò che è possibile fare con la manipolazione di video e immagini. Ma la pratica del deepfaking è iniziata solo nel 2017. Anno in cui un utente di Reddit con lo stesso nome ha caricato sulla piattaforma versioni modificate di filmati pornografici.
Nei video, i volti di diversi personaggi famosi, come Gal Gadot, Taylor Swift e Scarlett Johansson, sono stati sostituiti con quelli di performer pornografici. Per creare un video con l’effetto face swapping bastano pochi semplici passaggi.
In primo luogo, una tecnica di intelligenza artificiale nota come encoder viene applicata a centinaia di foto facciali diverse dei due individui. L’encoder analizza le somiglianze tra i due volti, le apprende e quindi riduce i volti alle loro caratteristiche comuni condivise. Questa procedura si traduce in una compressione delle immagini. I volti vengono poi insegnati a un secondo sistema di intelligenza artificiale, detto decodificatore, che li recupera dalle foto compresse.
Poiché i volti sono distinti, è necessario addestrare un decodificatore per recuperare il volto della prima persona e un altro decodificatore per recuperare il volto della seconda persona. È sufficiente inserire le foto codificate nel decodificatore “sbagliato” per effettuare lo scambio di volti. Ad esempio, un decodificatore che è stato addestrato per la persona B dovrebbe inserire l’immagine compressa del viso della persona A. Successivamente, il decodificatore ricrea il volto della persona B utilizzando le espressioni e la posizione del volto A. Questa operazione deve essere eseguita su ogni fotogramma se si vuole che il video sia credibile.
Esistono diversi metodi per generare deepfake
Una rete generativa avversaria, spesso nota come Gan, è un altro metodo che può essere utilizzato per creare deepfake. Due diversi programmi di intelligenza artificiale competono l’uno contro l’altro in un Gan. Il primo algoritmo, chiamato generatore, riceve un rumore generato a caso e lo converte in un’immagine. Questa immagine artificiale viene poi aggiunta a un flusso di fotografie reali, ad esempio di celebrità, che vengono inserite nel secondo algoritmo, noto come discriminatore.
Questo processo continua fino alla produzione dell’immagine finale. All’inizio, le immagini sintetiche non avranno alcuna somiglianza con i volti. Ma se si ripete la procedura un numero infinito di volte, prestando attenzione al suo funzionamento, sia il discriminatore che il generatore miglioreranno. Se si danno abbastanza cicli e input, il generatore inizierà a produrre volti estremamente realistici di superstar completamente inventate. Queste celebrità non esistono.
Chi produce i deepfakes
Tutti possono generare ottimi deepfake. Dai professionisti del mondo accademico e dell’industria agli appassionati amatoriali, alle aziende che producono effetti visivi e persino ai creatori di film porno.
È possibile che anche i governi stiano sperimentando questa tecnologia nell’ambito delle loro campagne online per screditare e distruggere gruppi estremisti, ad esempio. Oppure per stabilire un contatto con persone che sono state prese di mira in modo specifico.
Gli strumenti tecnologici sono necessari
Con un normale computer è ancora piuttosto difficile creare un deepfake convincente. La maggior parte di essi viene realizzata su computer desktop di fascia alta dotati di potenti schede grafiche o, meglio ancora, con l’aiuto della potenza di calcolo del cloud. In questo modo il tempo di elaborazione si riduce da giorni e settimane a ore.
Tuttavia, è essenziale disporre delle conoscenze necessarie. Non ultima la capacità di modificare i video finiti in modo da ridurre al minimo lo sfarfallio e altri difetti estetici. Detto questo, oggi esiste una pletora di tecnologie che possono aiutare gli utenti nella creazione di deepfake. È possibile farli realizzare da diverse aziende e tutta l’elaborazione viene effettuata su cloud. Esiste anche un’applicazione per telefoni cellulari chiamata Zao che consente agli utenti di aggiungere i propri volti a un elenco di personaggi televisivi e cinematografici sui quali il sistema si è addestrato.
Come riconoscere un deepfake
Con il progredire della tecnologia, il compito diventa sempre più difficile. Nel 2018 alcuni ricercatori statunitensi hanno scoperto che i volti deepfake non sbattono regolarmente le palpebre. Non dovrebbe essere una sorpresa che ciò sia avvenuto perché la stragrande maggioranza delle foto ritrae gli esseri umani con gli occhi aperti. Di conseguenza, i programmi informatici non imparano mai a sbattere le palpebre.
A prima vista, sembrava una soluzione infallibile al problema del rilevamento. Tuttavia, quasi subito dopo che la scoperta è stata resa pubblica, sono cominciati ad apparire dei deepfake, con tanto di battito di ciglia. Non appena viene scoperta una falla, vi si pone immediatamente rimedio perché è così che è strutturato il gioco.
I deepfake di qualità inferiore sono facili da individuare. È possibile che la sincronizzazione delle labbra non sia corretta o che il tono della pelle non sia uniforme. È possibile che i volti trasposti presentino dei bagliori intorno ai bordi. È molto difficile per i deepfake rappresentare accuratamente piccole caratteristiche come i capelli, soprattutto nelle aree in cui le singole ciocche sono visibili ai margini dell’immagine. Anche gli effetti di luce innaturali, come l’illuminazione non omogenea e i riflessi sull’iride, possono essere un indizio negativo. Altri indizi sono i gioielli e i denti mal rappresentati, così come i denti e i gioielli mal modellati.
Enormi finanziamenti per il riconoscimento dei deepfake
La ricerca per identificare i deepfake sta ricevendo finanziamenti da diverse fonti, tra cui governi, università e aziende tecnologiche. Alla fine del mese scorso si è tenuta la prima Deepfake Detection Challenge, con il sostegno di Microsoft, Facebook e Amazon. I team di ricerca di tutto il mondo si sfideranno l’uno contro l’altro nel tentativo di determinare chi è il migliore nel rilevare i deep fake.
In vista delle elezioni presidenziali negli Stati Uniti del 2020, Facebook ha vietato i filmati noti come deepfakes. Questi hanno il potenziale di ingannare gli spettatori facendogli credere che qualcuno “ha detto parole che in realtà non ha detto”. D’altra parte, la restrizione si applica solo alle informazioni false generate dall’intelligenza artificiale, il che significa che i “shallowfakes” (vedi sotto) sono ancora consentiti sul sito.
I deepfake causeranno problemi?
In futuro ci si potrebbe aspettare un maggior numero di deepfakes che molestino, intimidiscano, umilino, disturbino e destabilizzino il sistema. Ma questa tecnologia provocherà incidenti enormi sulla scena mondiale? A questo proposito, la situazione non è ancora così chaira.
L’Armageddon non dovrebbe essere innescato da uno scenario deepfake in cui un leader globale preme il grande pulsante rosso. Inoltre, le foto satellitari deepfake di truppe che si radunano su un confine non rappresentano un grosso problema, perché la maggior parte dei Paesi dispone già di sistemi di imaging di sicurezza affidabili.
Tuttavia, c’è ancora un notevole potenziale per mettersi in guai seri. Qualche anno fa, quando Elon Musk ha fumato uno spinello durante una trasmissione online in diretta, le azioni di Tesla sono crollate.
I deepfake credibili avranno un effetto sui mercati azionari, influenzeranno gli elettori e susciteranno tensioni religiose? Non sembra certo una scommessa priva di rischi.
Un problema globale di fiducia
I deepfakes, insieme ad altre forme di media sintetici e di fake news, hanno l’effetto più insidioso di contribuire alla creazione di una società costruita sulla fiducia zero. In tale scenario gli individui non sono in grado, o non si sforzano più, di distinguere tra verità e menzogna. Quando la fiducia viene meno, diventa molto più semplice mettere in dubbio certi avvenimenti.
Un video che, secondo Amnesty International, mostra soldati camerunesi che uccidono persone, è stato dichiarato falso dal ministro della comunicazione del Camerun un anno fa.
In una dichiarazione successiva, Donald Trump ha messo in dubbio la veridicità della registrazione in cui si vantava di afferrare parti non adeguate ad alcune donne. La discussione era stata catturata. Durante la sua intervista alla BBC con Emily Maitlis, il Principe Andrea ha messo in dubbio la validità di una foto scattata con Virginia Giuffre. La foto in questione è quella che il suo avvocato sostiene essere autentica e non è stata ritoccata in alcun modo.
Una realtà falsificata che potrebbe farci perdere sicurezza sulla realtà “vera”
Secondo la professoressa Lilian Edwards dell’Università di Newcastle, grande specialista di diritto online, “il problema potrebbe non essere tanto la realtà falsificata, quanto il fatto che la realtà reale diventa plausibilmente negabile”. La professoressa Edwards è una delle personalità più importanti nel campo del diritto di Internet.
I deepfakes possono potenzialmente causare problemi al sistema giudiziario man mano che la tecnologia diventa più facilmente disponibile. Ciò è particolarmente vero nelle controversie per l’affidamento di minori e nei tribunali del lavoro, che consentono di presentare come prove eventi simulati.
I deepfake possono ingannare i sistemi che si basano sul rilevamento del volto, della voce, delle vene o dell’andatura perché possono simulare i dati biometrici e ingannare tali sistemi. Tuttavia, rappresentano anche un rischio per la sicurezza personale degli individui. Non è difficile capire come possano essere messe in atto le truffe. Se si chiama qualcuno all’improvviso, è piuttosto improbabile che invii denaro a un conto bancario che non conosce. Cosa succede, però, se qualcuno che sostiene di essere vostra “madre” o “sorella” usa WhatsApp per avviare una videochiamata e fa la stessa richiesta?
Come si può risolvere questo problema
Ironicamente, l’intelligenza artificiale potrebbe essere la soluzione. L’applicazione dell’intelligenza artificiale sta già aiutando a identificare i filmati fraudolenti. Tuttavia, molti dei sistemi di rilevamento attualmente disponibili hanno un difetto significativo. Sono più efficaci quando vengono applicati alle celebrità, in quanto ciò consente loro di allenarsi su ore di materiale disponibile pubblicamente.
Le aziende tecnologiche stanno ora sviluppando sistemi di rilevamento con l’intento di identificare i falsi ogni volta che fanno la loro comparsa. Un’altra tattica pone l’accento sull’origine dei vari media. Un sistema di registro online blockchain potrebbe contenere una registrazione a prova di manomissione di filmati, fotografie e audio, in modo da poterne sempre esaminare l’origine e le eventuali alterazioni. I watermark digitali non sono infallibili, ma sono più affidabili dei metodi tradizionali.
Di solito dietro ai deepfake ci sono dei criminali?
Assolutamente no. Ce ne sono alcuni che sono divertenti e altri che sono istruttivi. I deepfake di clonazione vocale hanno la capacità di restituire la voce a persone che l’hanno persa a causa di una malattia.
I filmati deepfake possono animare gallerie e musei. Un deepfake del pittore surrealista Dal può essere visto nel museo Dal in Florida. Questo deepfake accoglie gli ospiti, spiega il suo lavoro e posa per i selfie con loro. Il settore dell’intrattenimento può utilizzare la tecnologia per migliorare il doppiaggio dei film in lingua straniera e, cosa più controversa, per far rivivere artisti deceduti. Entrambe le applicazioni sono controverse. Ad esempio, il defunto James Dean avrebbe avuto un ruolo nel film Finding Jack, che tratta del conflitto in Vietnam.
Riguardo i falsi troppo “shallow”?
I video che vengono mostrati fuori contesto o che vengono modificati con semplici strumenti di editing sono esempi di shallowfakes. Il termine “shallowfakes” è stato coniato da Sam Gregory, che lavora per l’organizzazione per i diritti umani Witness. Non sono raffinati, ma hanno indubbiamente un effetto. Un filmato falso che accelerava il discorso di Nancy Pelosi e faceva apparire il Presidente della Camera dei Rappresentanti degli Stati Uniti come biascicato è stato condiviso sui social media e visto da milioni di persone.
In un’altra occasione, il giornalista della CNN Jim Acosta ha avuto un’accesa discussione con il Presidente e, di conseguenza, gli è stato brevemente vietato di partecipare ai briefing con la stampa alla Casa Bianca. Dopo l’evento, è stato prodotto un filmato falso e superficiale, che dava l’impressione che Acosta fosse entrato in contatto con una stagista che cercava di sottrargli il microfono. Si scoprì poi che il filmato era stato accelerato nel punto vitale, facendo apparire la manovra più energica di quanto non fosse in realtà. Dopo qualche tempo, ad Acosta sono state restituite le credenziali di stampa.
Anche il partito conservatore del Regno Unito ha utilizzato una strategia di shallowfake. Durante la campagna elettorale che ha preceduto le ultime elezioni, i conservatori hanno falsificato un’intervista televisiva al deputato laburista Keir Starmer per far credere che non fosse in grado di rispondere a una domanda sulla posizione del partito sulla Brexit. Grazie ai deepfake, c’è una maggiore possibilità di commettere errori. “Il mondo sta diventando sempre più sintetico”, afferma Henry Ajder, capo dell’intelligence sulle minacce di Deeptrace.
Questo progresso tecnologico, tuttavia, non sarà abbandonato. Sarà alla coscienza collettiva fare buon uso delle nuove tecnologie. Il progresso non può essere arrestato. Può essere solo gestito al meglio facendosi trovare pronti. Questa è la vera sfida.