Sinds de opkomst van kunstmatige intelligentie, is het nabootsen van portretten, audio en video’s ook in opkomst. Deepfakes worden steeds beter. Hoe ontmasker je deepfakes?
Wie vindt het nou niet leuk om een ander gezicht op het lichaam van Obama te plakken, tijdens één van zijn beroemde toespraken?Hoe herken je deepfakes?
Onderzoekers van de universiteit van Berkeley leggen uit dat je specifiek moet kijken naar inconsistenties. [2] Belichting, randen rondom het hoofd en zelfs de tanden kunnen afwijken van het origineel. Toch zijn de verschillen erg subtiel en zal de technologie steeds beter worden. Dit maakt het steeds lastiger om ook deep fakes van echt te kunnen onderscheiden. Zeker met Generative Adverserial Networks worden de deepfakes griezelig goed. Maar toch maken zelfs de beste GANs af en toe groffe fouten.
Zoals in deze deepfake in onderstaande afbeelding. Het hoofd van een zwart kind is hier door de GAN geplakt op de romp van een volwassene met lichte huid. Ook is het haar een beetje wazig. Sommige dingen zijn juist griezelig realistisch, zoals het litteken.
Toepassing van deepfakes
Het gebruik van deepfakes kent vele mogelijkheden. Voor comedy kan dat hilarisch zijn. Wie zou niet Mr. Bean op het lichaam van een godin willen zien? Maar het brengt ook gevaren met zich mee. Mensen kunnen hiermee zwart worden gemaakt. Of er kan zelfs bewijsmateriaal voor een onderzoek worden gesaboteerd. Op de website ThisPersonDoesNotExist.com[2] kan je bijvoorbeeld een niet bestaand gezicht genereren. Erg handig, vinden trollen, om anoniem geloofwaardig over te komen[3]. Wat als mensen dit gaan gebruiken voor Facebook, of Tinder? Dit brengt ons terug op het onderwerp, wat is waarheid?
Nog meer gevaar in de toekomst
In de toekomst worden de gevaren nog groter. Denk bijvoorbeeld aan de episode van Black Mirror, waarin een deepfake van een zangeres wordt gemaakt door haar producer, om extra te kunnen verdienen zonder haar. [4] Oplichters kunnen zich uitgeven als een zoon of dochter. Of vriend. En via een videoverbinding om hulp, in de vorm van veel geld, smeken.
Wat we nu meemaken, is nog maar het begin.
Steeds groter gevaar, truth finding systeem nodig
We moeten dus werken aan een systeem om deepfakes te kunnen ontmaskeren. Deep fakes zullen in de toekomst te goed worden, waardoor de waarheid naadloos overgaat in de leugen. Misschien kan er een ranking systeem ingevoerd worden,waarmee AI kan aangeven hoe groot de kans is dat het filmpje fake is. AI’s kunnen ook steeds beter deepfakes ontdekken. Wat dat betreft is er een wapenwedloop in de AI. Wat denken jullie, dat goede oplossingen zijn voor dit dilemma?
Bronnen
1. Berkeley University News, Kara Manke|2019, Researchers use facial quirks to unmask ‘deepfakes’
2. ThisPersonDoesNotExist.com
3. How AI faces are being weaponized online, Donie O’Sullivan, CNN/KSL News Radio, 2020
4. ‘Black Mirror’ Highlights The Mounting Threat of Deepfakes in Hollywood, MxDWN,com, 2019
De waarheid is wat de meerderheid gelooft.
Zij zullen daar na handelen dus wat is de waarheid.
En wat nu als het misplaatst is? In de middeleeuwen dacht men ook dat de wereld plat was… :)