74

Bias-vrij Ook ‘bias-vrije’ data zijn een prangend onderwerp in de I-strategie. Het vorig jaar verschenen algoritmeonderzoek van de Algemene Rekenkamer hield het algoritme achter het uitkeren van de Tegemoetkoming Vaste Lasten (TVL) tegen het licht, de financiële regeling om ondernemers tegemoet te komen die omzetverlies leden door de coronamaatregelen. Het algoritme toetst aan de hand van een risicomodel of een aanvraag aan de voorwaarden voldoet en keurt deze automatisch goed als sprake is van een laag risico, omdat er bijvoorbeeld geen aanwijzingen voor misbruik of oneigenlijk gebruik zijn. In dat geval komt er geen ambtenaar meer aan te pas, wat tijd en capaciteit bespaart. “Voor EZK was dit een interessant onderzoek”, zegt Keijzer-Baldé. “Om in korte tijd steun uit te kunnen keren, was vanwege de grote aantallen ondernemers geautomatiseerde besluitvorming nodig. We hebben er nadrukkelijk voor willen zorgen dat de gebruikte data die wij voor de TVL aanleverden, bias-vrij zouden zijn. Het onderzoek van de Rekenkamer bevestigt dat dit gelukt is. Dat is namelijk niet eenvoudig. Het ingewikkelde van bias is dat je het nooit helemaal kunt doorgronden. Ook technologie is nooit volledig transparant. Dat maakt het ongelooflijk lastig data volledig bias-vrij te maken.” Heijblom: “De case bij de TVL laat zien dat we moeten investeren in onze mensen die bij deze primaire processen betrokken zijn. De beleidsmakers die bepalen hoe de regels eruit moeten zien, moeten heel goed kunnen sparren met de algoritme- en dataexperts, en ook met de mensen die aan het ontwikkelen en modelleren zijn. Dat is nodig om ervoor te kunnen zorgen dat zo min mogelijk bias voorkomt. We staan pas aan het begin en moeten dit echt nog onder knie krijgen.” Impact van algoritmes Juni vorig jaar bracht de Auditdienst Rijk het door de CIO Rijk gevraagde advies uit over het gebruik van algoritmes door de Rijksoverheid. De ADR is kritisch: niet inzichtelijk is of alle risico’s van algoritmes bekend en beheerst zijn. Ook de analyse van privacyrisico’s en de impact kunnen scherper. Bij algoritmes die persoonsgegevens verwerken, is de uitvoering van DPIA’s (data protection impact assessments) onder de maat. Volgens Heijblom wordt er bij het Rijk intussen al veel gedaan om het kennisniveau en bewustzijn rond de impact van algoritmes te verhogen. “We zijn daar druk mee bezig. Onderzoek, zoals dat van de ADR, helpt ons hierbij. Wat de DPIA’s betreft pakken we dat inmiddels zorgvuldiger aan. Er is nu ook een rijksbrede handreiking beschikbaar die elke ambtenaar moet toepassen. Zo willen we de aandacht voor privacy verbeteren.” Daarnaast, vult Heijblom aan, is er het Impact Assessment Mensenrechten en Algoritmen (IAMA), een afwegingskader 74 heeft. Ze koopt immers ook algoritmes in bij het aanbesteden van applicaties. Bij aanbestedingen worden ook geen harde afspraken gemaakt met leveranciers over non-discriminatie. Volgens Heijblom werkt de Rijksoverheid aan de ontwikkeling van aparte inkoopvoorwaarden voor algoritmes. Deze actie komt voort uit het werk van het interbestuurlijk consortium Publieke controle op algoritmen, waarin de G4, de provincies, politie en Rijkwaterstaat gezamenlijk beleidsinstrumenten voor algoritmes ontwikkelen, zoals de metadatastandaard waar het Algoritmeregister gebruik van maakt. “Ik kan niet uitsluiten dat we wel eens wat hebben ingekocht dat nog niet aan de nieuwe voorwaarden voldeed. Maar we kijken nu al met een verscherpte bril naar de contracten en services die we afnemen. We zijn er nog niet, maar dit soort maatregelen gaat ons beslist helpen.” voor overheden om wel of niet een algoritmetoepassing te gaan ontwikkelen. Een Kamerbreed aanvaarde motie drong vorig jaar aan op een verplicht gebruik van het IAMA. “Van dit soort instrumenten zullen er ongetwijfeld meer komen. Vergeet niet dat dit een vrij nieuw onderwerp voor de Rijksoverheid is. Het vergt bovendien een gedragsverandering. We hebben nog een hele ontwikkeling te gaan om dit soort I-aspecten in het DNA van de organisatie te krijgen, zodat we goed met data en algoritmes omgaan.” Verscherpte bril Uit eerder onderzoek van de Algemene Rekenkamer kwam naar voren dat bij het Rijk nog weinig inzicht is in het aantal risicovolle algoritmes die het gebruikt of in ontwikkeling Technologie is nooit volledig transparant. Dat maakt het ongelooflijk lastig data volledig biasvrij te maken

75 Online Touch Home


You need flash player to view this online publication