AI is grotendeels het domein van technici en programmeurs. In het rapport ‘Aandacht voor algoritmes’ stelt de Algemene Rekenkamer vast dat bij algoritmes niet de burger, maar de overheid centraal staat. ‘Verkeerd gebruik van een dataverzameling kan een discriminerende werking hebben als deze vooroordelen bevat,’ waarschuwt de Rekenkamer. TAALKUNDIG “Een eerste, ethische vraag die je bij AI-toepassingen kunt stellen is: willen we dit wel en zouden we dit moeten willen,” stelt Van der Knaap. Daarnaast speelt taal een belangrijke rol bij AI. “ De manier waarop AI een taal leert en met taal omgaat is heel anders dan zoals wij dat doen.” Kunstmatige intelligentie leert in een gecontroleerde laboratoriumsetting, legt hij uit. “ChatGTP heeft bijvoorbeeld heel goed geleerd om een volgend woord in een zin te voorspellen. Bij ‘ik zit op een…’ is de waarschijnlijkheid dat het volgende woord ‘stoel’ is, een kwestie van kansberekening. Voor mij is een stoel een fysiek iets waarvan ik gebruikmaak en waarvan ik een beeld heb.” Bij een empirisch model is AI volledig afhankelijk van de data waarmee het wordt getraind. “Dat betekent dat, als er een ‘bias’ in de data zit – en je bent je daar niet bewust van – het AI-model dat overneemt.” Van der Knaap legt het uit aan de hand van een praktijkvoorbeeld. “ChatGTP ging er meestal vanuit dat een dokter altijd een man is en een verpleger een vrouw.” Grofweg zijn er twee mogelijkheden om de kans op dit soort fouten te verminderen. “Je kunt kijken naar de data. Zijn dat wel de juiste data om het AI-model te trainen? En ten tweede kun je kijken naar het team programmeurs waarmee je werkt of die het model controleren. Is dat wel divers genoeg? Als je alleen maar witte mannelijke ontwerpers van middelbare leeftijd hebt, zullen ze zich waarschijnlijk helemaal niet bewust zijn van de eigen vooronderstellingen.” “ WE KUNNEN NOG STEEDS ZELF DE REGELS STELLEN” “De accountancy is een van de branches waarvoor kunstmatige intelligentie grote gevolgen gaat hebben” Het fraudeprofiel dat leidde tot de Toeslagenaffaire is een voorbeeld van zo’n ‘confirmation bias’. Van der Knaap: “Een algoritme werkt op basis van correlaties. Als je aan het sociale profiel voldoet, word je als fraudeur aangemerkt, ook als je helemaal niks hebt gedaan. Het gaat niet altijd goed, doordat we ons onvoldoende bewust zijn hoe AI werkt. Wat een algoritme niet kan, is het detecteren van oorzaak-gevolg. Dat heb je nodig om fraude echt te 6 &GO magazine
7 Online Touch Home