Werkconferentie impact synthetische media

Verslagen, presentaties & achtergrondinformatie

Toen in 2019 bleek dat de toegankelijkheid van deepfaketechnologie sterk toenam is de politie begonnen met een verdere verdieping op synthetische media, hun impact op de samenleving en daarmee op het werk en de rol van de politie.

Met het verschijnen van een artikel in Wired in 2020, waarin AI-generated text the scariest deepfake of all genoemd werd (taalmodellen als GPT waren toen al sterk in opkomst), kwam het besef dat het niet alleen gaat om kaders voor het moreel verantwoord benutten van de kansen, maar ook om het inspelen op de risico’s in de context van criminaliteit en manipulatie van de informatievoorziening. De sterke opmars van ChatGPT heeft intussen aan een veel breder publiek duidelijk gemaakt wat de impact kan zijn.

De verwachting van experts is dat binnen vijf jaar 90% van de digitale content synthetisch is, dus gegenereerd of gemanipuleerd met kunstmatige intelligentie (AI). In combinatie met het besef dat ons inmiddels globale informatie ecosysteem volledig afhankelijk is van het internet, roept dit fundamentele vragen op. Hoe geef je betekenis aan informatie in een wereld waarin alles nep (gemanipuleerd) is? Wat betekent dit voor de validatie van informatie, vertrouwen en de rol van publieke en private organisaties.

Reden voor de politie om het onderwerp breder te agenderen en het initiatief te nemen om samen met partners een rijksbrede werkconferentie over de impact van synthetische media te organiseren. Doel van de conferentie was enerzijds om experts en beleidsmakers bijeen te brengen om de laatste ontwikkelingen met elkaar te delen. Anderzijds om in kennissessies en aan werktafels concreet op een aantal zaken te verdiepen. Dit ging om de rol van de overheid, samenwerking, het betekenis kunnen geven aan informatie en mogelijke kaders waarbinnen we de technologie op verantwoorde wijze kunnen toepassen. Synthetische media bieden immers ook veel kansen, niet alleen in het kader van dienstverlening en entertainment, maar ook voor bijvoorbeeld inclusie en kwaliteit van leven!

Hieronder volgt een kort verslag, over twee onderwerpen is ook een greenpaper opgeleverd, vanwege het belang om deze gezamenlijk vervolg te geven! Dit betreft Provenance en Van content naar context met Trust Anchors.


Paneldiscussie
Zowel tijdens de dag zelf, als in de terugkoppeling van diverse deelnemers achteraf, waren de belangrijkste resultaten de nieuwe inzichten en contacten die zijn opgedaan.

Dit kwam ook tot uitdrukking in het hoog gewaardeerde panel, dat onder meer in ging op het vervagen van de grenzen tussen echt en nep; wat je waarneemt wordt steeds meer door ‘Big Tech’ bepaald. Via (augmented) informatielagen leidt dit ook in de fysieke wereld tot een steeds verdere afbrokkeling van de gezamenlijke werkelijkheid, waardoor het intersubjectieve referentiekader verdwijnt. Wat betekent dit voor de wijze waarop we met elkaar omgaan? Leidt het besef dat alles gemanipuleerd is tot reality apathy, waarbij mensen niet meer de moeite nemen om uit te zoeken hoe het echt zit omdat dit teveel moeite kost en teveel kennis en kunde vraagt?


Ook werd gesproken over moraliteit, hoe nieuwe technologie de sociale normen verandert en de rol van de overheid. Op welke niveaus wil je dingen regelen? Het is heel belangrijk om op het niveau van individu en organisatie te investeren in kritisch vermogen, maar ten aanzien van regulering was men kritisch. Wie bepaalt straks wat echt (minimaal gemanipuleerd?) of nep is? En zelfs als je labels doorvoert: onderzoek heeft uitgewezen dat deze nauwelijks waargenomen worden. 

Ook bij regelgeving werden vraagtekens geplaatst. Hoe ga je die handhaven? Een mooie uitspraak was:


“Probeer de vragen van de toekomst niet op te lossen met de manier waarop je nu werkt”


Een pleidooi om te werken met scenario’s en daarbij een meer diverse groep te betrekken dan nu aanwezig. Eigenlijk staan we voor een ontwerpvraagstuk; wat is onze visie op hoe we het wél willen? Door hier een gezamenlijk beeld op te creëren kunnen we ook mede vormgeven aan de toekomst!

Elk (nieuw) systeem maakt slachtoffers, de overheid zou zich moeten richten op hoe hiermee om te gaan. Wat kunnen we voor hen doen, hoe kunnen we een soort van ‘vangrails’ ontwikkelen waarmee de impact wordt beperkt, en (!) waarbij iemand zo snel mogelijk effectief wordt geholpen?


Werktafels over het betrouwbaarder betekenis kunnen geven aan informatie

  1. Van content naar context met Trust Anchors 
    Als alles gedigitaliseerd is, hoe kun je dan nog iets vertrouwen? Welke zogenaamde trust anchors kunnen vanuit de context ondersteunen bij het betekenis geven? Helaas kon deze werktafel geen doorgang vinden, maar de betrokkenen hebben
    een greenpaper geschreven met een toelichting op de mogelijkheden, de bouwstenen die al beschikbaar zijn en het advies om te investeren in kennis en toepassing.
  2. Provenance
    In ons huidige informatie-ecosysteem, waarin het steeds moeilijker wordt om de betrouwbaarheid van informatie vast te stellen, kan provenance een belangrijke bijdrage leveren. Het biedt de mogelijkheid om de herkomst, toegebrachte wijzigingen of juist de onveranderlijkheid van content en bijbehorende metadata onherroepelijk en onweerlegbaar vast te leggen. Deze zekerheid kan leiden tot een groter vertrouwen in informatie. Aan deze door ECP georganiseerde werktafel is gesproken over casussen, verschillende oplossingen en nuances ten aanzien van de rol van technologie. Omdat de kennis over het onderwerp in Nederland nog beperkt is, hebben betrokkenen een
    kennisdocument (greenpaper) opgesteld met het advies te investeren in een vervolg.

Werktafels in de context van ethiek

  1. Dialoog over de inzet van deepfake
     Aan deze, door het programma Dialoog & Ethiek van de Rijksoverheid, georganiseerde werktafel werd ruimte gemaakt voor de ethische reflectie op de inzet van deepfakes door de overheid. De deelnemers kozen ervoor om de vraag: “Wil je als overheid misleidende deepfakes inzetten?” verder te verdiepen. Een verslag van de sessie tref je
    hier
  2. Fairfake
    De afdeling NPO Innovatie organiseerde deze werktafel om met collega’s en experts te praten over de mogelijkheden én de risico’s van de inzet van synthetische media bij de publieke omroep. Een duidelijke uitkomst was dat de publieke omroep er goed aan doet dit thema heel voorzichtig, integer en transparant aan te pakken. Het verslag vind je
    hier

Werktafels over overheid en samenwerken

  1. Proportionaliteitsbeginsel, wie is aan zet in de publiek-private context
    Aan deze door het Openbaar Ministerie georganiseerde tafel lag de focus op
    non-consensual deep porn omdat 95% van de deepfakes hieronder valt. Juridische gezien kun je vervolgen voor het verspreiden van dit soort beelden, maar hoe ga je dit handhaven? Wie is daarvoor aan zet? De brainstorm op basis van twee stellingen leidde tot de conclusie dat dit een gezamenlijke publiek/private verantwoordelijkheid is.
  2. Democratische vrijheid van gedachtevorming
    Een, door het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties georganiseerde, meer filosofische werktafel om stil te staan bij wat ervoor nodig is om te kunnen bepalen waar de morele, ethische en maatschappelijke grenzen van gemanipuleerde informatie (zoals desinformatie) in het publieke debat liggen, en welke handelingsopties hierbij passend zijn vanuit de overheid? In deze sessie werden vooral invalshoeken en inzichten gedeeld. Geadviseerd werd enerzijds het creëren van overzicht en inzicht in wat platforms (of andere plekken waar verspreiding plaatsvindt) nu al doen om desinformatie te bestrijden. Anderzijds om een aan de hand van een concrete casus een groep mensen samenstellen die verder nadenkt over dit thema.
  3. Samenwerking in de keten
    Hoe gaan we om met deepfakes en creëren we een gezamenlijke informatiepositie ten aanzien van wat er wel en niet mogelijk is vanuit zowel forensisch als ketenperspectief? Deze werktafel werd gehost door het NFI, met wetenschap, ministeries, politie, advocatuur, OM en de rechtspraak. Belangrijkste uitkomst was dat blijvend kennis en inzichten moeten worden opgebouwd en gedeeld zodat we allemaal dezelfde informatiepositie hebben. In een vervolg kan dit vorm krijgen.

Keynotes & kennissessies

Er waren ook een aantal workshops, voor zover beschikbaar is een link opgenomen naar de presentatie en/of een verslag.

  • The State of deepfake (Keynote Politie)
    In deze keynote werd een overzicht gegeven van de ontwikkelingen op het gebied van synthetische media, de kansen en ook risico’s, zoals de ondermijnende effecten van tekstsynthese (waaronder ChatGPT). Afgesloten werd met de notie dat binnen 5 jaar 90% van de digitale content met AI gegenereerd of gemanipuleerd is. In veruit de meeste gevallen zonder malafide intenties, gewoon ter verbetering van bijvoorbeeld dienstverlening of kwaliteit van leven. Als alles gemanipuleerd is heeft het geen zin meer om te spreken over nep of echt, het gaat dan om de kennis en kunde om de informatie op waarde te kunnen schatten. De
    sheets zijn hier terug te zien.
  • Betekenis geven aan informatie (Politie)
    In deze sessies werd samen met het publiek gekeken naar voorbeelden van gemanipuleerde informatie en hoe je door nader onderzoek (OSINT) in de context meer zekerheid kunt krijgen over de betrouwbaarheid en betekenis. Van deze sessie zijn geen sheets beschikbaar.
  • AI4Intelligence: Deepfakes, van data naar bewijs (UvA)
    Data wordt steeds meer multimodaal en er zijn steeds meer vragen over of het echt of gegenereerd is. Hybride intelligentie is noodzakelijk om tot echt betrouwbaar bewijs te komen. Daar heb je AI-tools voor nodig, maar ook visualisatietools. Je houdt steeds bij wie welke beslissing heeft genomen in dat hele proces (provenance).
    In deze sessie werd ingegaan in de verschillende aspecten die hier een rol bij spelen. De
    sheets vind je hier.   
  • DIY deepfake maken/detecteren (NFI)
    In deze workshop werd aan de hand van veel voorbeelden verdiept op de technische werking en mogelijkheden om deepfakes (zelf) te maken en te detecteren. Voor het maken van goede kwaliteit fakes is nog steeds veel trainingsmateriaal nodig. Voor het detecteren is er niet één oplossing, het NFI gebruikt hier diverse methoden voor. De
    sheets zijn hier te zien.   
  • Naar een verantwoorde metaverse (Rathenau)
    Op interactieve, speelse wijze werd stil gestaan bij de impact en wenselijkheid van de verdergaande digitalisering van de fysieke werkelijkheid, het toekomstbeeld dat ook wel de metaverse wordt genoemd. Geen sheets beschikbaar.   
  • The Uncanny Valley (Keynote Reblika)
    In deze keynote werden inzichten gedeeld met betrekking tot het authentieker laten lijken van
    digital humans; soms zijn het juist de imperfecties die het perfect maken. De sheets zijn hier terug te zien.
Share by: