26 juni 2023
Het is even geleden dat een update geplaatst werd, schandalig want de ontwikkelingen buitelden over elkaar heen afgelopen jaar. Werd vorig jaar nog vooral gesproken over deepfakes (beeld/geluid) en synthetische media, sinds dit jaar zien we overal de term generative AI en tools voor het genereren van tekst, zoals ChatGPT. Hoewel er bijna dagelijks nieuwe mogelijkheden verschijnen, blijft de grote lijn hetzelfde. (1) Iedereen kan straks alles wat digitaal (te maken) is klonen, manipuleren en/of genereren en (2) al rond 2025 is naar verwachting 90% van alle digitale content synthetisch, dus met AI gemanipuleerd of gegenereerd. Dit zal een enorme impact hebben. We kunnen niet meer vertrouwen op onze eigen waarneming. Hoe weet je in welke mate je gemanipuleerd wordt, hoe behoud je vertrouwen? Hierover ging de eerste, door politie geïnitieerde, rijksbrede werkconferentie “impact van synthetische media & deepfakes”. Op iBestuur is recent een blog geplaatst met belangrijkste stappen die we kunnen zetten. In deze nieuwsbrief heb ik de nieuwtjes gegroepeerd in beeld, geluid (stemklonen!) en tekst. Door deze te combineren kun je er volledig autonome digitale personages (avatars) mee creëren en voor je laten werken. Ter afsluiting ook nog iets over detectietools. Beeld Er is een duidelijke toename van beeldmateriaal van kindermisbruik gecreëerd met AI tools . Op TikTok worden in true crime stories, steeds vaker deepfakes van slachtoffers , vooral kinderen, gebruikt, wat enorme impact op betrokkenen kan hebben. Het genereren van afbeeldingen ter ondersteuning van je verhaal kan ook ten koste gaan van je geloofwaardigheid zoals Amnesty mocht ervaren. Het vooraf transparant aangeven dat en waarom je ervoor kiest (zoals beschermen betrokkenen) helpt. Een overzicht van overwegingen bij de inzet van deepfakes vind je hier . Een gegenereerde foto van een explosie bij het Pentagon getwitterd door een schijnbaar betrouwbaar account van Bloomberg zorgde voor een dip in de beurzen. • De schroom om deepfake beelden te gebruiken voor politieke doeleinden verdwijnt steeds verder. De Republikeinse presidentskandidaat DeSantis heeft er geen enkele moeite mee om deepfake beelden van zijn rivaal Trump te verspreiden (die er zelf ook gretig gebruik van maakt). Steeds vaker worden video’s met niet bestaande personen (avatars) ingezet voor het verspreiden van desinformatie, ook door overheden, bijvoorbeeld in Burkina Fasou en Venezuela . Mooie voorbeelden van de laatste mogelijkheden van beeldbewerking zijn DragGan en de opties die Adobe nu biedt. Audio Er komen steeds meer toepassingen waarbij je jouw stemkloon kunt inzetten, Microsoft heeft aangetoond dat 3 seconden geluid voldoende is. In dit artikel worden 11 tools beschreven. Gek genoeg staat Elevenlabs hier niet bij, terwijl zij juist zoveel misbruikt werden, bijvoorbeeld om de stem van Emma Watson uit Mein Kampf te laten voorlezen. Denk dus na voor je iets op TikTok plaatst, een fragment van je stem is voldoende om te klonen. Hier een voorbeeld van hoe je er persoonlijke gegevens mee kunt ontfutselen. We zien dit ook steeds meer terugkomen bij verschillende vormen van CEO en Vriend-in-Nood-Fraude toegepast worden. Er kan ook emotie aan de stemkloon meegegeven worden, zo werd deze moeder overtuigd dat haar dochter ontvoerd was. Het wordt extra effectief met een combinatie van gezicht en stem… In deze post heb ik wat tips opgenomen waarmee je kunt voorkomen erin te trappen. Steeds meer organisaties zijn overgestapt op biometrische authenticatie, en zij lopen er nu tegenaan dat dit hun systeem verzwakt. Al veel langer is het mogelijk om met het gezicht van iemand anders een bankrekening te openen. Banken, maar ook andere organisaties zoals de belastingdienst in Australië , gebruiken ook de stem als biometrische controle voordat ze iemand toegang geven. Vice laat zien dat deze systemen niet bestand zijn tegen stemklonen. Swatting as a service , een dienst die opnames met nepstemmen aanbiedt die je kunt inzetten om de politie ergens een inval te laten doen. $50 om je school een dagje plat te leggen, en voor $75, laat je ze iemands huis binnenvallen en doorzoeken… Zeer zorgelijk gezien de politiecapaciteit die hiermee verspild wordt en de emotionele impact op betrokkenen. Samsung kondigde recent de mogelijkheid aan om via tekst-to-speech je stemkloon een gesprek in stilte te laten voeren als je ergens bent waar je niet kunt praten. Koppel het aan toepassingen als ChatGPT en je hoeft helemaal het gesprek niet meer te voeren😉 Tekstsynthese (Large Language Models, ChatGPT) Tekstmodellen kunnen op veel manieren ondersteunen en brengen eindeloos veel nieuwe mogelijkheden voor mensen die ergens leek in zijn of minder taalvaardig. Neem dit voorbeeld voor het ontwerpen van een tomatenpluk-machine , of hoe ChatGPT je kan helpen in een live sollicitatie gesprek . Als je echt een goed beeld wilt krijgen van de betekenis (het grotere plaatje), dan raad ik de podcast The AI Dilemma aan, beste dat ik afgelopen tijd hoorde! Het gaat vaak mis met ChatGPT en vergelijkbare tools. Mensen willen het gebruiken als zoekmachine, maar het is ontwikkeld om voor jou teksten te genereren, dus als jij bronnen wilt hebben, dan krijg je die, maar die hoeven niet echt te bestaan zoals deze advocaat merkte toen hij jurisprudentie zocht. Mensen kunnen er ook echt door beschadigd worden. Zoals een burgemeester ervaarde, die volgens ChatGPT in de gevangenis had gezeten, of de man die geld verduisterd zou hebben en de professor zogenaamd betrokken bij sexueel misbruik . Als mensen naar je gaan zoeken via ChatGPT, kunnen de gekste dingen opkomen. Spannend wordt of het lukt om OpenAI, het bedrijf achter ChatGPT aan te klagen… Voor wie het toch wil gebruiken vast een tip, hoe overtuigender het antwoord van AI, hoe groter de kans dat het niet klopt ! Door het combineren van de mogelijkheden van deepfake audio en video met ChatGPT die de gesprekken genereert, kun je (semi) autonome personages (avatars/digital humans) creëren die aan de hand van een aantal mee gegeven intenties zelf gesprekken en relaties aangaan en aan hun handelen invulling geven. Zo kun je een kloon van je zelf tegen vergoeding beschikbaar stellen, bijvoorbeeld als virtuele vriendin . In de praktijk blijkt het echter lastig af te bakenen hoe ver jouw kloon mag gaan… In dit artikel meer commerciële toepassingen (denk aan dienstverlening, trainingen) en diverse dreigingen. Ook kun je (meerdere) avatars autonoom aan het werk zetten in de metaverse. Dit werk kan echter ook inhouden het verspreiden van gedachtengoed en ronselen van mensen… Hier een voorbeeld van de eerste experimenten met volledig autonome “mensen” in een “metaverse” die zelf op basis van intentie hun activiteiten en doelen van de dag bepalen en op basis daarvan onderling interacteren. Er is een aparte nieuwsbrief over de Metaverse, laat het me weten als je die wilt ontvangen! AI-detectietools Met de opkomst van AI groeit ook de vraag naar AI-detectietools, ik heb bewust geen overzicht opgenomen, want ze vormen ook een risico als we erop gaan vertrouwen (en weet je wie achter de tools zitten, dus met wie je tekst/beeld deelt?). Van deepfake-detectietools is bekend dat ze niet goed werken. Ze detecteren maar een deel van de fakes en ze merken soms ook betrouwbare content aan als fake. Ook laat recent onderzoek naar detectietools voor door studenten met AI-gegenereerde tekst zien dat deze een bias kennen naar non-native Engelssprekenden. Hun werk wordt veel vaker als AI-generated (“fake”) aangemerkt dan dat van native sprekers. Als in 2027 90% van de content met AI gegenereerd of gemanipuleerd is, vraag ik me ook af wat de meerwaarde is van het weten dat AI gebruikt is? Het gaat uiteindelijk om wat je met de informatie wilt doen, dat bepaalt de relevantie van de manipulaties… Onderzoek daarom zelf in welke context de informatie gegenereerd is en toets dat aan de context waarin jij het wilt toepassen. Wat gaat helpen zijn de initiatieven op het gebied van provenance, internationaal zijn grote consortia van camerabedrijven, nieuwsmedia (oa BBC), Google, Microsoft, Adobe, Truepic en vele anderen hiermee bezig. Ook op de rijksbrede werkconferentie werd dit als een belangrijke oplossingsrichting gezien. Wil je meer weten over provenance, bekijk dan deze toelichting . Heb je vragen, zelf interessante links, laat het me weten via het contactformulier!