Synthetische (deepfake) video en audio ontwikkelden zich snel afgelopen jaar, maar dit viel nauwelijks op tussen de doorbraken op het gebied van tekst. Het afgelopen jaar ging alle aandacht uit naar grote taalmodellen (LLM’s) en in het bijzonder ChatGPT. Na de eerste opwinding over de schijnbaar eindeloze mogelijkheden werd duidelijk dat het als tekstgenerator eigenlijk maar een beperkt aantal betrouwbare toepassingsmogelijkheden en veel risico’s kent. Juridisch zijn er zelfs zoveel kanttekeningen dat niet gecontracteerd gebruik van online generatieve AI (tekst, beeld, geluid) voor rijksambtenaren in principe verboden is. Wanneer wordt gemak belangrijker dan de waarden van de rechtsstaat?
Dit hield mij bezig de afgelopen periode tijdens het schrijven van een notitie over de maatschappelijke impact van LLM’s. Vooral toen het nieuws naar buiten kwam dat een belangrijke dataset voor het trainen van tekst-to-image systemen kinderporno bevat . Dat is de reden waarom dergelijke tools nu ook gebruikt kunnen worden voor het genereren van kwalitatief goede virtuele kinderporno.
Al in 2022 was bekend dat de datasets beelden van ISIS-executies en ‘non consensual’ porno bevatten, maar deze werden niet offline gehaald. Nu is de dataset wel offline gehaald, maar dat geldt niet voor alle erop gebaseerde tools. Vanwege de complexiteit kiezen bedrijven vaak voor het aanpassen van de contentfilters om zo misbruik moeilijker te maken. Dit pleisters plakken zie je ook als reactie op alle problemen bij LLM’s. Het lost het oorspronkelijk probleem niet op en mensen blijven workarounds vinden om de nieuwe filters te omzeilen. Onderzoekers zijn er nu zelfs in geslaagd een AI
chatbot te trainen die zelf nieuwe methoden bedenkt om de contentfilters te ontwijken.
De techbedrijven nemen niet hun verantwoordelijkheid, ze zitten in een concurrentiestrijd waarbij het essentieel is zo snel mogelijk zoveel mogelijk gebruikers afhankelijk te maken. Dit kennen we van de sociale media. Moeten wij hen dan steunen door deze tools te gebruiken? Wat mij betreft nemen we hier een scherp standpunt op in om een andere koers af te dwingen.
Het is goed te beseffen dat met de snelle groei van door AI gegenereerde content het internet niet beter wordt. Dit heeft ook impact op de kwaliteit van de generatieve AI systemen zelf, deze worden immers getraind op content van het internet. Dit wordt ‘Model Collapse’ genoemd. Het risico is dat we nu steeds meer gaan leunen op generatieve AI die uiteindelijk
onvoldoende gaat presteren
voor de gemaakte toepassingen. In een onderzoek werd een Model steeds weer getraind op basis van synthetische (met AI gegenereerde) teksten, waarbij na 10x het model
volledige onzin begon uit te kramen.
Sommigen sturen hier ook bewust op aan. De universiteit van Chicago ontwikkelde eerder al
Fawkes, hiermee kon je het gezicht, in een foto die je upload naar social media, zodanig veranderen dat het niet gebruikt kon worden voor gezichtsherkenning. De AI zou zelfs slechter gaan werken met dit trainingsmateriaal (dit wordt datapoisoning genoemd). Hun
nieuwe tool Nightshade, waarmee kunstenaars hun kunstwerken kunnen beschermen, werd in 5 dagen al ruim 25.000x gedownload.
Ondertussen wordt het steeds lastiger goede informatie te vinden. Dat komt niet alleen door malafide gebruik, mensen denken ook gewoon een handig tooltje gevonden te hebben om dingen voor hen te laten doen en controleren vervolgens niet de output.
Deze misinformatie vindt ondertussen zijn weg naar
allerlei kanalen waar mensen er niet op voorbereid zijn, hierdoor
degradeert het internet. Het is overal, denk aan
nieuws
en
andere artikelen,
boeken die worden gerepliceerd of zelfs volledig gegenereerd. Dit kan ook gevaarlijk zijn zoals bij gegenereerde boeken over het
zelf paddenstoelen plukken. Amazon heeft sowieso een probleem sinds
marketeers LLM’s gebruiken om snel goede teksten te genereren zonder daarna een controle uit te voeren. Zie ook het plaatje bovenaan deze pagina.
Ook social media als
Twitter (X) en
Facebook worden overspoeld met gegenereerde content waarvan mensen denken dat het echt is. De platformen
verdienen eraan. Opvallend is dat
Google een centrale rol speelt in de verspreiding van advertenties voor deze producten en websites. Hoewel ze eraan verdienen, schaadt dit wel de betrouwbaarheid en aantrekkelijkheid van haar zoekmachine. Ook aan de vele scams op
youtube waarbij deepfakes van beroemdheden worden gebruikt verdient Google trouwens behoorlijk, waardoor er geen enkele haast lijkt om deze te verwijderen.
Gelukkig is er ook weer een creatief iemand die iets gevonden heeft om je zoekresultaten te verbeteren. Naast een Ad-Blocker kun je nu een
AI-Blocker installeren om te zorgen dat de AI-gegenereerde hits uit je zoekresultaten gefilterd worden.
De verwachting was dat deepfakes een enorme rol zou spelen in de informatie oorlog tussen Isreal en Hamas. De praktijk is anders, generatieve AI speelt zowel een kleinere, als andere rol dan verwacht. Men neemt aan dat de kleinere rol het gevolg is van onder andere de enorme hoeveelheid echte, schokkende informatie die al aanwezig is. Daarnaast is het, waar het complotten betreft of bepaalde overtuigingen, niet moeilijk informatie te vinden die je daarin bevestigd. Verder is het net zo makkelijk, zo niet makkelijker om met photoshop iets aan te passen in een bestaande afbeelding in plaats van iets compleets nieuws te genereren. Meer in dit rapport.
In de context van de oorlog in Oekraine zie je dat veel vaker gebruik wordt van generatieve AI, soms gericht op 1 specifieke persoon zoals de Oekraïense minister van Defensie.
Zoals ook in de eerdere nieuwsbrief aangegeven zie je ook dat er steeds meer zogenaamde (breaking news) uitzendingen in omloop worden gebracht door statelijke actoren alsook China. Maar ook anderen produceren steeds vaker ‘nieuws’ clips met deepfake kopieen van bekende presentatoren van bijvoorbeeld CNN, BBC, CBS die nepnieuws delen of producten aanprijzen. Kanalen die deze nep-clips verspreiden op bijvoorbeeld Tiktok krijgen meer likes dan de oorspronkelijke uitzendingen, waarmee het een interessant verdienmodel is geworden. Voor zover ik weet worden in Nederland nepnieuws uitzendingen alleen nog gemaakt om malafide apps of crypto aan te prijzen, dus om geld te verdienen.
Dit
rapport geeft een aantal evidence based tips voor de aanpak van desinformatie door overheden, platforms en anderen.
Er is nog steeds geen zicht op goed werkende detectietools, ook van detectietools voor LLM’s is nu bekend dat ze
bias
bevatten en
makkelijk voor de gek te houden zijn.
Experts op het gebied van audio geven hetzelfde aan, detectietools houden de ontwikkelingen niet bij, om meer zekerheid te krijgen zul je echt onderzoek moeten doen in de context. Kijk vooral deze goede
TEDtalk over deepfakes en uitdagingen bij detectie,
of lees het artikel in de Economist met de laatste wetenschappelijke inzichten, gedeeld tijdens de NeurIPS conferentie, over wat de
problemen met detectie en ook de watermerken zijn.
Deepfakes (generatieve AI), blijken een grote rol te spelen bij het zaaien van twijfel over authentiek materiaal. Een effect dat versterkt wordt doordat mensen vertrouwen op
online deepfake detectietools, zonder te beseffen hoe slecht deze werken, dus hoeveel fakes ze niet herkennen en hoeveel betrouwbare informatie ten onrechte wordt afgedaan als fake. Daarom bij herhaling mijn oproep, gebruik geen detectietools maar laat bij twijfel onderzoek doen door specialisten (in context, digitaal-technisch, humint, osint)! Deze youtube video geeft praktische tips voor thuis
als je de informatie over detectietools negeert:
AI-Generated Fakes: How to spot them, how they're made and how they have been used to mislead
Lang bleef OpenAI volhouden dat er geen inbreuk op copyright werd gemaakt, nu blijkt dat
60% van de antwoorden van CHatGPT plagiaat bevat.. ChatGPT geeft
nauwelijks aangepaste artikelen uit de New York Times terug in haar antwoorden, terwijl
Dall-E bij het verzoek “videogame italian”
Mario Bross plaatjes als resultaat geeft.
En hoe kun je er je persoonlijke
South Parc afleveringen mee genereren als het daar niet op getraind is? Niet voor niets is de New York Times een rechtszaak gestart. Inmiddels hebben onderzoekers aangetoond
Sommige mensen snappen niet waar mensen zich druk om maken en vergelijken het met Google Search, maar het grote verschil is dat je daar
een link krijgt naar een site en daarmee wordt ondersteund in onderzoek naar (de authenticiteit van) de bron. Het eventuele copyright probleem ligt dan bij die website, die daarvoor eventueel vervolgd kan worden door de eigenaar. Generatieve AI produkten, zoals van OpenAI schotelen je een tekst/plaatje voor zonder bronvermelding en met de aanname dat je een origineel product krijgt waar je eigenaar van word en dat je vrij kan gebruiken. Bij Mario Bros zou je dit nog kunnen raden omdat het een redelijk bekend spel is, maar bij kopieën uit kranten, boeken of films, cartoons en games uit andere culturen wordt dat heel ingewikkeld.
Nu dat de bewijzen volop naar buiten komen is de reactie van bedrijven als OpenAI om te lobbyen, op basis van het argument dat “it would impossible to train today’s leading AI models without using copyrighted materials. Limitin training to… would not provide AI systems that meet the needs of today’s citizens”.
Heel veel websites worden bijgehouden door vrijwilligers, maar ze kosten ook geld want de systemen moeten wel ergens gehost en onderhouden worden. Neem Wikipedia als voorbeeld. Via Google kom je op Wikipedia zelf uit. Google wint want traffic loopt via hen, Wikipedia wint, want gebruikers komen op hun site terecht en kunnen dan overwegen financieel bij te dragen (gelukkig doen mensen dat. Andere sites verdienen aan de advertenties die ze tonen) en de gebruiker wint omdat ze getoetste, kwalitatief goede informatie krijgen.
OpenAI kopieert alle content en verkoopt dit aan de gebruikers. Op korte termijn betekent dit dat OpenAI wint, Wikipedia verliest (niemand komt meer naar hun site), en de gebruiker verliest een heel klein beetje, omdat een taalmodel altijd wat ongecontroleerde aanpassingen doet.
Op lange termijn verliezen we echter allemaal, Wikipedia en andere websites krijgen geen bezoekers meer, waardoor ze geen inkomsten uit donaties of advertenties meer hebben. Ze gaan daardoor ten onder en daarmee verliest het internet nog meer betrouwbare content (en worden taalmodellen alleen maar slechter…)