Tools & Detectie

Welke legale mogelijkheden zijn er voor creatie en wat kun je detecteren?

Onderstaande is een opsomming van wat ik tegen ben gekomen, GEEN advies en/of waarde oordeel over de kwaliteit! 

Deepfakes genereren

Er zijn diverse bedrijven die de mogelijkheid bieden tot het genereren van deepfakes ten behoeve van een breed scala aan toepassingen. Stuur vooral een berichtje als je iets wilt laten toevoegen.


Face/video


Voice

 Kijk voor een recent overzicht op https://geekflare.com/ai-voice-cloning-tools/ hier worden 11 tools beschreven. Gek genoeg staat https://beta.elevenlabs.io/ hier niet bij, terwijl zij recent juist veel misbruikt werden, bijvoorbeeld om de stem van Emma Watson uit Mein Kampf te laten voorlezen.


Digital Humans

  • Synthesia.io
  • digitalhumans.com/
  • deepbrainai.io
  • colossyan.com

Detectie

Helaas zijn er (nog) geen goede tools voor geautomatiseerde detectie van synthetische media zoals deepfakes, maar een score van 65% is beter dan niets. Als je je bewust bent van de beperkingen kun je de tools wel gebruiken. De tool die 65% haalt, is niet publiek beschikbaar.  De enige aanpak die echt werkt is onderzoek doen naar de context, en daarbij gebruik makend van osint tools en crowdsourcing.


Een overzicht van beschikbare tools/bedrijven(realiseer je dat naast een beperkt resultaat, waarbij je fakes kunt missen, er ook sprake kan zijn van false positives waarbij de tool zegt dat iets echt is, terwijl dit niet zo is!):

Foto/video


Audio

Er zijn veel tools die ook aan biometrische identificatie doen ter detectie van deepfake-fraude (bijvoorbeeld stemmen aan telefoon). Algemeen advies, ga niet alleen af op wat aanbieders aangeven, zorg voor eigen testmateriaal en doe (bij voorkeur samen met andere organisaties) grondig vergelijkend en verdiepend onderzoek, de wapenwedloop gaat hard!

·         https://news.rub.de/english/press-releases/2021-12-20-it-security-identifying-fake-voice-recordings

  • https://www.pnas.org/doi/10.1073/pnas.2110013119
    We compare the performance of ordinary human observers with the leading computer vision deepfake detection model and find them similarly accurate, while making different kinds of mistakes. Together, participants with access to the model’s prediction are more accurate than either alone, but inaccurate model predictions often decrease participants’ accuracy.


De tools hebben als nadeel dat ze gericht zijn op specifieke Machine Learning modellen (GAN). Je kunt er dus geen zogenaamde cheapfakes (knip- en plakwerk) of andere AI-methoden mee detecteren.
Op langere termijn bieden detectietools geen oplossing. Allereerst omdat diezelfde detectoren gebruikt worden om betere deepfakes te creëren. Hierdoor is de verwachting dat deepfakes straks zo goed zijn, dat detectie niet meer mogelijk is. Daarnaast wordt verwacht dat binnen 5 jaar meer dan 90% van de online content synthetisch is, fake dus. Hierdoor zal een detector voor deepfakes continu aanslaan.

Share by: