68

Tweede Kamer focust op risico’s van AI Innovatievruchten als ChatGPT zijn mooi en aardig, maar er is juist meer grip nodig op de risico’s van AI, stelt de Tweede Kamer. Het vertrouwen in het toezicht is laag, regulering is hard nodig en er is bar weinig inzicht in de hoog-risico-algoritmes van de Rijksoverheid. Het kabinet wacht liever op Brussel. Nog veel beren op de weg M Met een rondetafelgesprek en twee commissiedebatten stond artificiële intelligentie (AI) de afgelopen maanden vol op de agenda van de Kamercommissie Digitale Zaken. In 2023 moet veel regelgeving gestalte krijgen, ook in Brussel. Veel van de nieuwe wetgeving gaat over de risico’s van AI. En daar ligt ook de focus van de commissie. Wat alles te maken heeft met de giftige algoritmes uit de toeslagenaffaire, over de landsgrenzen bekend als ‘the Dutch scandal’. De Fraude Signalering Voorziening (FSV) van de Belastingdienst werkte met een zelflerend risicomodel op basis van eerdere aanvragen en pikte er voor controle toeslagouders met een tweede nationaliteit uit. Deze parameter was als selectieregel geprogrammeerd, omdat ze vaak voorkwam bij ouders die kinderen naar van fraude verdachte kinderopvangbedrijven brachten. Wie in de FSV zo’n registratie kreeg, stond als potentiële fraudeur te boek en kwam op de zwarte lijst. De rest is geschiedenis. Ook bij onschuldige burgers werden grote sommen aan kinderopvangtoeslagen teruggevorderd, met alle gevolgen vandien. Dat nooit meer, zegt de Kamer. Burgers mogen op geen enkele wijze schade ondervinden van discriminerende programmeercode. Alweer anderhalf jaar terug kwam daar het rapport over AI bij van de Wetenschappelijke Raad voor het Regeringsbeleid (WRR). De impact van de complexe technologie op publieke waarden (veiligheid, privacy, inclusie en autonomie van burgers) is lastig te overzien en onvoldoende geborgd in adequate regulering, aldus de WRR. Voor de commissie Digitale Zaken aanleiding maatschappelijke organisaties uit te nodigen om met een toplijstje van aandachtspunten te komen en aan te geven hoe de gaten in de wet- en regelgeving te dichten. In dit rondetafelgesprek, dat half januari plaatsvond, benadrukken organisaties als Bits of Freedom, Rathenau Instituut, het College voor de Rechten van de Mens en de Europese organisatie ALLAI, dat het beheersen van de risico’s van AI een grote uitdaging voor de overheid is, terwijl ze er juist extra scherp op moet zijn dat algoritmes ‘bias-vrij’ zijn. Waardering voor Werkagenda Door Pieter van den Brand Beeld Barry Hage 68 Verdere kritiekpunten vanuit het rondetafelgesprek: het kennisniveau van de overheid laat te wensen over en het bewustzijn over de gevaren van AI is niet tot alle lagen van de overheid doorgedrongen. Er is veel regulering nodig en de wetgeving die er is, is versnipperd over de beleidsvelden, en daarmee ook het toezicht dat flinke aanscherping behoeft. De extra capaciteit voor de

69 Online Touch Home


You need flash player to view this online publication