Vi ricordate Ritorno al futuro*? La macchina, la musica e al centro del tutto, il duo iconico di Robert Downey Jr. e Tom Holland come Doc Brown e Marty McFly. Naturalmente, non si ricorda questo ultimo punto, infatti, Tom Holland non era nemmeno nato quando Ritorno al futuro è uscito nel 1985.
Ma è possibile vedere questo cast alternativo in uno delle centinaia di nuovi video "deepfake" che sono comparsi Internet negli ultimi anni. Utilizzando la tecnologia di deepfake, questi video possono trasferire attori in film in cui non hanno mai recitato, o celebrità in interviste che non sono mai state realizzate con una precisione inquietante. C'è una paura crescente sulle conseguenze dei deepfake. Quanto è giustificata questa paura? E cosa possiamo fare per affrontarla?
Cosa sono i deepfakes e dovremmo essere preoccupati?
I Deepfakes operano basandosi su una tecnologia chiamata "reti generative avversarie" (GAN). Una rete avversaria è composta da due reti neurali, una chiamata il Generatore e l'altro chiamato il Discriminatore.
In primo luogo, il generatore prende come input una foto di una persona e cerca di generare una seconda foto, simile ma diversa dalla foto fornita. Questa foto viene di seguito fornita alla rete Discriminatore, che cerca di capire se l'input fornito è reale o falso, da qui proviene il nome "avversaria" proviene: ciascuna rete sta cercando di ingannare l'altra.
Più le due reti si allenano, migliori diventano nella generazione di immagini finte che sembrano reali. Infine, viene creata un'immagine indistinguibile (almeno per la rete discriminante) dalle fotografie reali di quella persona. Così nasce un deepfake. Ecco come è possibile ottenere un video del CEO di Facebook, Mark Zuckerberg, che vende trattamenti di dialisi fraudolenti, o comicamente minacciando di conquistare il mondo.
Ma per alcuni critici, tali video sono risate nel buio. La capacità di creare rappresentazioni quasi completamente convincenti e realistiche, dicono, potrebbe avere conseguenze da brivido in molte aree della vita.
I video Deepfake potrebbero mettere parole incriminanti nelle bocche dei politici, o creare opportunità ai politici per eliminare le loro parole o azioni reali nei contesti in cui sono stati falsificati. C'è anche un potenziale fraudolento significativo. Se le persone possono essere convinte da un email di phishing da qualcuno che si finge di essere la loro banca, chiedendo un trasferimento di soldi, allora quanto più convincente sarebbe ricevere una videochiamata da un collega o parente? L'agenzia di polizia dell'UE Europol ha raccomandato in un report che le autorità di polizia facciano "investimenti significativi" nello sviluppo di tecnologie che possono contribuire a rilevare l'utilizzo malevole dei deepfake.
Il rischio si applica anche al mondo sotterraneo sinistro della pornografia su Internet, in cui le celebrità e altri possono essere inseriti digitalmente in materiale esplicito senza il loro consenso. A settembre 2019, quasi il 96% dei deepfakes erano stati implementati nella pornografia, secondo un report di DeepTrace.
Questo, tuttavia, indica che la minaccia può essere minore di quanto sembra. La manipolazione delle foto esiste più o meno dal 1860, e la rimozione politicamente motivata dei nemici politici dalle fotografie ufficiali è stata ampiamente utilizzata nell'Unione Sovietica con Joseph Stalin. Come recentemente, nel 2004, una foto falsificata di John Kerry è apparsa sul New York Times*, durante la corsa presidenziale di quell'anno. Ed è stato possibile mentire sulla stampa fin quando c'era, la stampa. Quindi sicuramente, affermano gli scettici, è solo un'altra con cui dovremo imparare a convivere.
Riconoscere i falsi
Nonostante queste rassicurazioni, è comprensibile che molte persone si sentano più sicure se ci fossero modi infallibili basati su tecnologia per distinguere un deep fake da una cosa reale. E infatti, la ricerca continua su questo fronte. Ciò che l'IA può fare, può anche contribuire a disfare.
Per esempio, l'azienda IA Zeff è solo una delle aziende che cercano di mantenere i sistemi di rilevamento con IA un passo avanti. Inizialmente, uno dei segni distintivi di un deepfake era l'innaturalità del battito di ciglia. Tuttavia, una volta identificato il problema, sono stati integrati degli aggiustamenti nelle soluzioni di deepfake. Ora sono in grado di battere le ciglia come le persone reali.
In risposta, Zeff è passato all'utilizzo dell'IA per guardare il flusso sanguigno sotto la pelle, il quale i deepfakes non possono ancora emulare in modo adeguato. Tuttavia, parlando del podcast di Intel sull'IA, il Chief Data Officer di Zeff, Ben Taylor, è pragmatico sulla sostenibilità a lungo termine della soluzione, riconoscendo la natura gatto-topo del campo. “Questo è un problema a bersaglio mobile. Quindi, qualunque buona idea noi ci creiamo, questo è un'idea che qualcun altro può usare per migliorare i deepfake".
Un'altra soluzione è l'aggiunta di strati digitali alle fotografie che le rendono inutilizzabili per la generazione di deepfakes, quindi farli morire con il proprio veleno. Per esempio, ricercatori indipendenti hanno sviluppato uno strato algoritmico che può essere codificato in un'immagine. Il codice poi distorce l'immagine in modo irriconoscibile se rileva che qualcuno sta cercando di utilizzarla per un deepfake.
Non è ancora chiaro se il rischio posto dai deepfakes aumenterà. Possiamo imparare a vivere con queste tecnologie o la tecnologia può renderne più facile il rilevamento. Ma forse la posizione più sicura da prendere è quella del Chief Technology Officer di Facebook*, Mike Schroepfer: "Vorrei essere davvero preparato per molte cose brutte che non avverranno mai, piuttosto che il contrario".