Workshop Deep fake in electies

Over het identificeren van bedreigingen en het ontwikkelen van oplossingen, zoals het verbeteren van AI-transparantie en diversiteit in AI-ontwikkeling.

In deze workshop leidde Robin Pocornie een gesprek over de invloed van deepfakes en AI in verkiezingen. Algoritmen die gebruikt worden door zoekmachines, sociale media zoals YouTube en platformen als Netflix, bieden gebruikers informatie op basis van hun eerdere gedrag. Dit lijkt onschuldig, zoals wanneer je filmvoorstellen krijgt die lijken op wat je eerder hebt gekeken, maar de onderliggende systemen zijn vaak bevooroordeeld door de data die eraan ten grondslag ligt.

De impact van AI en algoritmen
AI-systemen maken gebruik van voorgetrainde data die vaak afkomstig is uit de westerse wereld, en deze data bevat inherente vooroordelen. Een duidelijk voorbeeld hiervan is wanneer iemand de term ‘politici’ invoert in een zoekmachine: het resultaat is vrijwel altijd witte, oudere mannen in pakken en stropdassen, terwijl vrouwen, mensen van kleur en andere diverse groepen worden uitgesloten. Deze gebrekkige representatie leidt tot ongelijkheden in de output van AI-systemen, en gebruikers zijn zich hier vaak niet van bewust.

Een voorbeeld van hoe dit misbruikt wordt, is te zien in de wereld van deepfakes. AI kan worden gebruikt om misleidende beelden te creëren, zoals in het geval van Kamala Harris, waar haar hoofd op pornografische video’s werd geplaatst om haar reputatie te beschadigen. In Nederland hebben ook politici zoals Sigrid Kaag en Ellen Vedders te maken gehad met vergelijkbare aanvallen. Robin Pocornie benadrukte dat dit soort aanvallen vaak worden gefaciliteerd door platforms zoals X (voorheen Twitter), waar Elon Musk actief desinformatie verspreidt door dergelijke video’s te delen.

Discussie in groepjes: bedreigingen van AI voor politica’s
Na de inleiding gingen de deelnemers in kleine groepjes uiteen om de bedreigingen van AI voor politica’s te bespreken. Enkele van de belangrijkste bedreigingen die naar voren kwamen, zijn:

  • Misrepresentatie van politica’s: AI-systemen tonen politieke leiders vaak als witte mannen in pakken, wat een vertekend beeld geeft van diversiteit in de politiek.
  • Onvolledige datasets: AI-systemen zijn vaak gebaseerd op gebrekkige of eenzijdige data, wat leidt tot verkeerde uitkomsten. Dit versterkt bestaande uitsluitingen van vrouwen en minderheden.
  • Gebrek aan diversiteit in de techsector: In de technologie-industrie werken voornamelijk mannen, wat leidt tot een blik die vrouwen en minderheden niet adequaat vertegenwoordigt. Hierdoor worden vrouwen vaak seksueel geobjectiveerd of gereduceerd tot traditionele rollen zoals huisvrouw.

Oplossingen: hoe kunnen we AI verbeteren?
In de tweede fase van de workshop bespraken de groepen mogelijke oplossingen voor de bedreigingen die door anderen waren geïdentificeerd. Enkele voorgestelde oplossingen zijn:

  • Focusgroepen betrekken bij het ontwikkelen van AI: AI-modellen zouden getest moeten worden met focusgroepen die een afspiegeling van de samenleving vormen om inclusie te waarborgen.
  • Training voor het publiek: Gebruikers moeten beter worden opgeleid in wat AI wel en niet kan, en hoe ze AI bewust kunnen gebruiken.
  • Meer transparantie: Bij AI-toepassingen moet duidelijk worden gemaakt hoe data wordt verzameld en welke beperkingen er zijn, zodat gebruikers zich bewust zijn van de beperkingen van de datasets.
  • Onderwijs over AI: Meer voorlichting en training op scholen over de werking en invloed van AI, met aandacht voor diversiteit, inclusie en sociaaleconomische factoren.
  • AI actief trainen: Gebruikers kunnen hun zoektermen aanpassen om bewust diversere resultaten te krijgen, bijvoorbeeld door termen als ‘vrouw’ of ‘inclusie’ toe te voegen.
  • Meldplicht bij onjuiste informatie: Gebruikers moeten worden aangemoedigd om foutieve of schadelijke informatie direct te melden via de Digital Service Act (DSA).
  • Platforms als X vermijden: Platforms zoals X, die door hun eigenaar worden gebruikt om eenzijdige opvattingen te promoten, zouden minder gebruikt moeten worden. Elon Musk heeft bijvoorbeeld moderatoren verwijderd en de algoritmes zo aangepast dat controversiële meningen, waaronder zijn eigen, voorrang krijgen.

EU-wetgeving en regulering van AI
Tot slot werd de AI Act van de EU besproken, die transparantie en privacy bevordert, maar nog niet ver genoeg gaat om alle problemen aan te pakken. De wet is te vaag en laat ruimte voor interpretatie, wat betekent dat bepaalde vormen van haatspraak en desinformatie door kunnen blijven gaan. Een belangrijk aandachtspunt is welke visie op de maatschappij wordt weerspiegeld in de AI-systemen en hoe we ervoor kunnen zorgen dat deze inclusiever worden.

Deze workshop benadrukte hoe belangrijk het is om actief met AI om te gaan en bewust te zijn van de beperkingen en vooroordelen die deze technologie met zich meebrengt. Er is nog veel werk te doen om AI meer divers, inclusiever en rechtvaardiger te maken, zowel op het gebied van technologieontwikkeling als regulering.

Meer Algemeen