Onderstaande is een opsomming van wat ik tegen ben gekomen, GEEN advies en/of waarde oordeel over de kwaliteit!
Er zijn diverse bedrijven die de mogelijkheid bieden tot het genereren van deepfakes ten behoeve van een breed scala aan toepassingen. Stuur vooral een berichtje als je iets wilt laten toevoegen.
Face/video
Voice
Kijk voor een recent overzicht op https://geekflare.com/ai-voice-cloning-tools/ hier worden 11 tools beschreven. Gek genoeg staat https://beta.elevenlabs.io/ hier niet bij, terwijl zij recent juist veel misbruikt werden, bijvoorbeeld om de stem van Emma Watson uit Mein Kampf te laten voorlezen.
Digital Humans
Helaas zijn er (nog)
geen goede tools voor geautomatiseerde detectie van synthetische media zoals deepfakes, maar een score van 65% is beter dan niets. Als je je bewust bent van de beperkingen kun je de tools wel gebruiken. De tool die 65% haalt, is niet publiek beschikbaar. De enige aanpak die echt werkt is onderzoek doen naar de context, en daarbij gebruik makend van
osint tools en crowdsourcing.
Een overzicht van beschikbare tools/bedrijven(realiseer je dat naast een beperkt resultaat, waarbij je fakes kunt missen, er ook sprake kan zijn van false positives waarbij de tool zegt dat iets echt is, terwijl dit niet zo is!):
Foto/video
Audio
Er zijn veel tools die ook aan biometrische identificatie doen ter detectie van deepfake-fraude (bijvoorbeeld stemmen aan telefoon). Algemeen advies, ga niet alleen af op wat aanbieders aangeven, zorg voor eigen testmateriaal en doe (bij voorkeur samen met andere organisaties) grondig vergelijkend en verdiepend onderzoek, de wapenwedloop gaat hard!
· https://news.rub.de/english/press-releases/2021-12-20-it-security-identifying-fake-voice-recordings
De tools hebben als nadeel dat ze gericht zijn op specifieke Machine Learning modellen (GAN). Je kunt er dus geen zogenaamde cheapfakes (knip- en plakwerk) of andere AI-methoden mee detecteren.
Op langere termijn bieden detectietools geen oplossing. Allereerst omdat diezelfde detectoren gebruikt worden om betere deepfakes te creëren. Hierdoor is de verwachting dat deepfakes straks zo goed zijn, dat detectie niet meer mogelijk is. Daarnaast wordt verwacht dat binnen 5 jaar meer dan 90% van de online content synthetisch is, fake dus. Hierdoor zal een detector voor deepfakes continu aanslaan.