“What are the cost of lies? It’s not that we’ll mistake them for the truth. The real danger is that if we hear enough lies, then we no longer recognize the truth at all.” – HBO’s Chernobyl

Binnen 2-3 jaar worden Deep Fakes in video, audio en text onherkenbaar realistisch. Met voorspelbare gevolgen. Misschien zijn de technologieën nog niet helemaal zover, maar de eerste voortekenen voorspellen niet veel goeds. We laten een voorbeeld zien hoe makkelijk een Deep Fake gemaakt kan worden. Verder gaan de Deep Fake ontwikkelingen hard: van foto’s en video’s naar tekst en muziek. Recent viel een geopolitiek incident door diplomaten moeilijk in te schatten door de angst voor fake news. Het is een kwestie van tijd voordat alle trends op hun plek vallen: sociaal, technologisch en geopolitiek.

Waar zijn Deep Fakes op gebaseerd? 

De meeste vooruitgang in AI is gebaseerd op nieuwe toepassingen van “Machine Learning” dat patronen in data herkent en hergebruikt. 

Deep Learning is een onderdeel van Machine Learning dat zgn. “Neural Networks” gebruikt. Die zijn in staat om zelfs de zwakste patronen te vinden en die uit te vergroten. 

Neural Networks zijn lagen van knooppunten waar (op ieder knooppunt) berekeningen worden gedaan aan de data. Gezamenlijk vinden die dan een patroon in de data. Het concept is losjes gebaseerd op de werking van neuronen in ons brein. 

Nu komt het leuke deel: waar één Deep Learning neural network heel erg goed is in het vinden van patronen zijn twee van zulke netwerken heel erg goed in het maken ervan. Zoals Deep Fakes. 

Zulke dubbele netwerken heten “Generative Adversarial Networks” (GAN). Die naam zegt 2 dingen: 1) Generative: het genereert patronen/data en 2) Adversarial: ze werken tegen elkaar. Ze trainen elkaar om steeds beter te worden. Net als een sparring-partner met boksen. 

Welkom bij de nieuwe information wars. Een voorbeeld

“GANs and the variations that are now being proposed is the most interesting idea in the last 10 years in Machine Learning, in my opinion.” Yann Lecunn (Turing Award winner & Chief AI Scientist Facebook: een v.d. grondleggers van Deep Learning) 

GANs zijn “los verkrijgbaar”: zie bijvoorbeeld hier en hier. Je kunt de Python code zo downloaden. Maar een GAN op zich is onvoldoende om een Deep Fake te maken. Wat mist en wat essentieel is, is de data. 

Dit soort algoritmen moet zich een vaardigheid – zoals het maken van een bepaalde Deep Fake – aanleren. En dat aanleren gebeurt via voorbeelden. Data dus. Maar waar een mens vaak aan een paar voorbeelden genoeg heeft, heeft zo’n algoritme er heel veel nodig. Soms tien-duizenden. Soms miljoenen.  

De crux zit hem dus in de data. Zonder goede data heb je niets. 

In Maart 2018 beschreef Gaurav Oberoi een demo hoe hij een Deep Fake genereerde. Hij wilde Jimmy Fallon in John Oliver laten veranderen. Zoals hierboven aangegeven is het creëren van zo’n algoritme – althans om het concept te laten zien – niet het probleem. 

Zoals gezegd heb je dus vele tienduizenden voorbeelden van foto’s van Jimmy Fallon en van John Olliver om dat algoritme te trainen. Die vond hij op een creatieve manier. Via videos. 6-8 video’s van ieder 2-3 minuten waren voldoende om 15.000 fotos te genereren.

De tussenresultaten van het trainen van het GAN algoritme zie je hieronder in een set GIF’s. 

via GIPHY Jimmy Fallon/John Oliver zingt Iggy Azalea’s song Fancy. Het algoritme doet het aardig zelfs met de microfoon ervoor. Een goed begin maar trainen is nog verder nodig. (CC BY-NC) Gaurav Oberoi).   via GIPHY  

Hier presenteert John Oliver Jimmy Fallon’s show. Zie hoe het algoritme de bril prima pakt maar de vorm van het gezicht en het haar (nog) niet. Het moet nog verder getraind worden. (CC BY-NC) Gaurav Oberoi).  



via GIPHY

Goede peptalk!! Het algoritme heeft nu genoeg geleerd om Fallons “Do It!” te kunnen vervangen door John Oliver, zonder dat hij er verder nog raar uitziet. En volledig meegaand in de snelheid van de bewegingen. (CC BY-NC) Gaurav Oberoi).

Deep Fakes anno 2019 en de toekomst: 

Deep Fakes blijven niet beperkt tot foto’s of video. En blijft ook niet beperkt tot GANs. Je kunt ook text faken. Of muziek. Of iemand’s stem. Laten we fake muziek nemen. OpenAI (een stichting in San Francisco) publiceerde een nieuw algoritme (GPT-2) en creëerde er muziek mee. Het algoritme is eigenlijk bedoeld voor taal te genereren. Overigens nog een risico gebied voor deep fakes: fake tekst/emails op grote schaal. Het model blijkt ook goed te werken voor muziek. Luister naar Rachmaninoff hieronder. Alleen is het geen Rachmaninoff. Het is het AI dat in Rachmaninoff’s stijl componeert. Gebaseerd op de 1e zes noten van D major Prelude Op. 23 No. 4. De complexiteit neemt toe naarmate je langer luistert. 

Dit AI wordt nu al door verschillende songwriters gebruikt om “tegen zichzelf te componeren”. Voor een dosis extra creativiteit. Alsof ze in een componerende spiegel oefenen. 

https://soundcloud.com/openai_audio/rachmaninoff  

Stel je voor dat je een ongelofelijke hekel aan Katy Perry hebt. Of Bruno Mars. En je creëert een aantal fake nummers met hun stem en hun stijl muziek. Je laat ze voor het gemak ook even wat zingen dat half-Amerika pissed off maakt. 

Of zoals John McCain’s “Bomb Iran” (alleen was dat niet fake!!). Of meen Nancy Pelosi’s (Speaker of the House, leider van de Democraten in Congress) video. Daarin leek ze dronken en dubbele tong te spreken. Nee het was geen deep fake, alleen maar low-tech video-editing. 

 https://youtu.be/sDOo5nDJwgA?t=21

De vervormde video van Pelosi is alleen op Facebook al 2.5 miljoen keer gezien. En uiteraard binnen die groepen die toch al vooroordelen hadden en er open voor stonden.  Probeer zoiets achteraf dan maar weer recht te praten. 

Het wordt nog makkelijker. Je hoeft eigenlijk helemaal geen tekst meer te zingen of in te spreken om een fake video te genereren. De nieuwste research laat het je gewoon… typen. 

https://www.youtube.com/watch?v=0ybLCfVeFL4

En dan hebben we het nog niet eens gehad over “fake emails”. Gebaseerd op emails of gesproken text kan AI zelf emails schrijven – in jouw stijl. 

Stel een hacker plaatst een “virus” op je telefoon dat alleen tot doel heeft al jouw communicatie te monitoren. Foto’s, video’s, telefoongesprekken, elk woord dat je typt. En terwijl je foto’s maakt, video’s schiet, social media shared, appt en belt leert het algoritme steeds meer van je. 

Tot het voldoende van je weet om je te kunnen imiteren…. 

Are you freaking out yet? 

Hoe Deep Fakes kunnen leiden tot oorlog  

Fere libenter homines id quod volunt credunt (Men willingly believe what they wish to be true)” – Julius Caesar 

Welk land heeft de aanslagen op de olietankers gepleegd in de Perzische Golf de afgelopen maanden? Was het Iran zoals Trump beweerde? Of toch Saudi-Arabië, de Emiraten, of Israel – of misschien wel allemaal samen? 

Dit is geen retorische vraag. Het is de vraag die de gehele diplomatieke wereld bezighield de afgelopen weken. Er werd getwijfeld aan de film & foto’s die Iraniers laat zien die een mijn van de romp van een van de tankers verwijdert. 

Dit is de eerste buitenlandse crisis in de recente geschiedenis waarbij de angst voor Fake News en zelfs Deep Fakes een grote rol speelde. 

De geschiedenis zit vol anekdotes hoe vervalste documenten, foto’s en mis-informatie leidde tot internationale crises. Bovendien heeft elk nieuw medium geleid tot oorlog, of speelde een katalyserende rol daarin: de boekdrukkunst voor de 30-jarige oorlog. De radio & film in WO II propaganda. (Zie research Prof. Dirk Helbing ETH, Zurich)

We staan pas aan het begin van de huidige golf van Fake News en Deep Fakes. Desondanks zijn tegenmaatregelen nu al nauwelijks succesvol. 

Europa’s eerste defensiesysteem – Rapid Alert System – is onlangs gelanceerd. Het heeft tot doel Russische desinformatie waar te nemen en een alarm uit te sturen. Men wilde een situatie zoals in 2016 tijdens de Amerikaanse verkiezingen en de Brexit voorkomen. 

Maar dit systeem is nauwlijks succesvol gebleken – en alweer bijna ter ziele. Dan hebben we het dus over een systeem dat alleen nog maar Fake News moet herkennen. Niet over de veel moeilijker te traceren Deep Fakes, die m.b.v AI zijn gemaakt. 

De geluiden die je hoort daarover zijn: “It’s not rapid. There are no alerts. And there’s no system.”

Meer over dit onderwerp dit najaar…