De wijze waarop we de wereld waarnemen wordt steeds vaker bepaald door een digitaal filter. Er is nu veel aandacht voor deepfakes en terecht want het wordt steeds makkelijker om bijvoorbeeld een gezicht of stem te klonen. En als je een beetje handig bent, kun je nu met het gezicht van iemand anders online een bankrekening openen. Of je kunt diegene van alles laten zeggen.
Mensen worden wel al kritischer op beelden die ze zien, maar als het over audio of tekstsynthese (taalmodellen als ChatGPT) gaat zijn nog weinig mensen zich bewust van de impact. Neem de impact op Vriend-in-Nood of CEO-fraude, nu je zowel het telefoonnummer waarmee je belt als de stem kunt faken.
Als je breder kijkt, zie je dat deepfakes onderdeel zijn van een grotere beweging waarbij alles nep wordt. Experts verwachten dat over volgend jaar al meer dan 90% van de online content synthetisch is. Nep dus....
Zichtbaar zoals bij filters op social media of overleden acteurs die weer meespelen in een film, maar ook ongemerkt. Zo zijn de mensen in afbeeldingen op websites steeds vaker gegenereerde, niet bestaande personen. En ook bij videobellen gaat je gezicht niet meer volledig over de lijn. Vaak wordt aan het begin een snapshot van je gezicht gemaakt, waarna, om bandbreedte te besparen, tijdens het gesprek slechts enkele punten over de lijn gaan waarmee aan de ontvangende kant je gezicht door
kunstmatige intelligentie opnieuw gegenereerd wordt. Nep dus, maar puur ter verbetering van de dienstverlening.
Bij synthetische media gaat het meestal om toepassingen voor entertainment, dienstverlening of om onze kwaliteit van leven te verbeteren. Maar ze beïnvloeden wel onze waarneming, bijvoorbeeld als we online een sollicitatiegesprek voeren, of als een arts online in gesprek is met een patiënt. Dan is het belangrijk te snappen dat je niet het echte gezicht ziet. We letten immers ook op de non verbale communicatie. Maar wat is daarvan nog betrouwbaar als er maar een paar punten van het gezicht over de lijn gaan?
Om iets te kunnen zeggen over de betrouwbaarheid en de waarde van informatie in een bepaalde context, is tegenwoordig een extra inspanning nodig. Deepfake detectietools of goed kijken en luisteren (inzoomen) zijn geen oplossing voor de langere termijn. Als bijna alles nep is (meestal zonder slechte bedoelingen), dan wordt het onderscheid tussen nep en echt irrelevant en gaat het om betekenis geven in de specifieke context waarin je de informatie wilt toepassen.
De term deepfakes verwees oorspronkelijk naar een specifieke vorm van
kunstmatige intelligentie (GAN deeplearning), waarbij
twee systemen elkaar continu tot verbetering aanzetten. Het ene systeem, de generator, is getraind met heel veel foto’s van gezichten, waardoor het in staat is nieuwe gezichten te genereren of gezichten in beelden te vervangen (face swaps). Hier tegenover staat een tweede AI-systeem , de discriminator, die beoordeelt of iets echt of nep is, een deepfake detector.
Alleen de plaatjes die goed genoeg zijn worden doorgelaten door de discriminator. Hetzelfde principe kan toegepast worden om bijvoorbeeld audio, zoals stemmen, na te maken.
Het kenmerkende is dat de
generator en de discriminator elkaar continu dwingen te verbeteren. Daarom is het zo lastig is om goede deepfake detectietools te ontwikkelen, ze worden meteen weer gebruikt om de generator te trainen betere deepfakes te maken
Op deze site vind je meer informatie over de impact van synthetische media (deepfakes) en hoe je hiermee om kunt gaan. Om meer te weten over de
werking en impact van taalmodellen (LLM's) als ChatGPT kun je hier doorklikken.
Ga naar het
laatste nieuws (blogs) of klik hieronder voor een verdieping op impact (kansen & risico's), duiding, tooling of juridische/ethische aspecten.
Online vind je ook de volgende naslagwerken: