54

Handige assistent Koplopergemeenten De brief van Van Huffelen volgde mede op Kamervragen van Danai van Weerdenburg (PVV). Zij wilde uitzoeken of inzet van AI kan helpen om het gebrek aan (IT-)personeel bij de overheid minder nijpend te maken. Acht Rijksorganisaties hielden daarop een quick scan naar AI-gebruik die naar de Kamer is gestuurd. Daarin worden de kansen en risico’s helder benoemd, maar ook toepassingen: • Het opstellen van nota’s aan de hand van enkele bullets, waarna redactionele controle volstaat. • Het op gang helpen van brainstormsessies. • Het opstellen van audiovisuele presentaties aan de hand van enkele woorden. • De inzet van chatbots. • Het overnemen van routinematig werk. • Sneller genereren van content en documenten. • Sneller verwerken en analyseren van grote hoeveelheden data. • Hulp bij opstellen van inclusiever en toegankelijker overheidscommunicatie. • Notuleren, transcriberen en samenvatten. • Hulp bij verbetering van de informatie huishouding en antwoord op Woo-verzoeken. Met Chatbot Guus die vragen van burgers beantwoordt, loopt de gemeente Goes voorop met toepassing van ChatGPT. Hoe verhoudt dit zich tot de bezwaren in de brief van Van Huffelen? “De antwoorden zijn afkomstig van openbare webpagina’s”, zegt Rutger den Toom, beleidsmedewerker van Goes. Kan via de vragen aan Guus niet toch vertrouwelijke informatie of persoonsgegevens lekken? “Nee, want deze toepassing is gecontracteerd bij een partij die voorkomt dat OpenAI de vragen verwerkt om het model te leren.” De gemeente Nijmegen stelde een protocol op met richtlijnen voor GenAI-gebruik, zoals ‘deel nooit gevoelige informatie’, ‘wees open over het gebruik’ en ‘dubbelcheck de antwoorden’. Het adagium is: experimenteer naar hartenlust, maar voorzichtig. Een interne commissie begeleidt dit. De gemeente Groningen verbiedt ambtenaren met een protocol om GenAI te gebruiken, maar biedt enkele gemeentelijke accounts aan waarmee ambtenaren gecontroleerd online diensten kunnen gebruiken. Groningen stelt ook een externe ethische commissie in met onder anderen Willy Tadema, data-ethicus bij BZK en de universitair docenten Mathieu Paapst en Henk-Jaap Hoepman. AI-programma’s kunnen natuurlijk we helpen om teksten op te stellen, samen te vatten of te vereenvoudigen. De ambtenaar kan dan de eigen verantwoordelijkheid nemen om alles te reviewen. Dat kan voor mensen een hoop tijd schelen. Van der Klauw noemt als voorbeeld Typetone dat een AIapp biedt om moeilijke (ambtelijke) teksten te vereenvoudigen. “Dat is een voorbeeld van een onschuldige toepassing; ook omdat het publieke informatie gaat. Je moet het dus per toepassing beoordelen. AI is zo breed dat je niet een algemene regel kunt uitvaardigen zoals een totaalverbod. Overheden moeten kijken wat acceptabele toepassingen zijn en wat niet. Soms moet je experimenteren en daarvoor een veilige omgeving creëren, de zogenaamde sandboxes.” Ook Sander Klous, hoogleraar Big Data Ecosystems aan de UvA, KPMGpartner en iBestuur-columnist vindt een verbod te ver gaan. De vastgestelde risico’s van AI door Pels Rijcken en de AP erkent Klous, maar die zijn voor hem niet doorslaggevend: “Er zijn zo veel nuances in toepassingen van AI dat je beter grenzen kunt stellen aan het gebruik op grond van reële risico’s dan direct alles verbieden.” Als de rest van de wereld AI aangrijpt om dienstverlening te verbeteren kan Nederland niet achterblijven: “Als Nederlandse overheid kun je het beter niet negeren maar zo snel mogelijk samen kijken waar de grenzen liggen; bij welke gevoelige terreinen je AI-modellen buiten de deur moet houden.” Risico’s ziet Klous vooral bij toepassingen die leiden tot beoordelingen en veroordelingen, zeker als daartoe persoonlijke dossiers of vertrouwelijke informatie terechtkomen in de grote AI-machines. 54

55 Online Touch Home


You need flash player to view this online publication