53

persoonsgegevens bij het trainen van GPT voor ChatGPT, in september gevolgd door vragen over AI gericht op kinderen. Daar liggen ze in San Francisco niet wakker van. De gezamenlijke Europese privacytoezichthouder (EDPB) stelt een Europese Taskforce ChatGPT voor, maar doorgaans malen de EDPB-molens traag. Niet blij met verbod Op iBestuur.nl reageerde Jan Willem Boissevain: “Simpelweg verbieden van een razend populaire chatbot remt de innovatie en kan mogelijk averechts uitpakken. AI-tools zijn niet meer weg te denken uit de samenleving.” Hij ziet een parallel met het verbod op gebruik van commerciële clouddiensten door minister Donner in 2011 ten faveure van een ‘Rijkscloud’. Die beperking is recent teruggedraaid, want de angst voor gebruik van Amerikaanse clouds is wat overdreven gebleken. Nederland bepleit in Brussel een liberalere houding ten opzichte van AI. Weinig ambtenaren zitten te wachten op een verbod of strenge restricties vanuit de puur juridische insteek. Dat geldt zeker voor de Nederlandse AI Coalitie waar Kees van der Klauw de coalitiestrateeg AI is. “Het eventuele verbod is gebaseerd op rapporten van Pels Rijcken en de AP, dus op een puur juridische leest geschoeid. Ik snap dat de overheid haar vingers niet wil branden, maar dit is geen brede afweging. Ook ambtenaren gebruiken, net als medewerkers van bedrijven, allerlei tools. Vrijwel alle bureauwerkers worden verleid door generatieve AI-toepassingen. De regering loopt dus achter de feiten aan met een verbod. Mag het niet meer, dan gaan ambtenaren het privé gebruiken voor het werk, heb je helemaal geen controle meer. Je moet niet zeggen, het is verboden en punt erachter. We moeten voor de kar gaan lopen, nu dreigen we er achteraan te hobbelen.” Van der Klauw vindt wel dat er voorwaarden aan het gebruik moeten worden gesteld. “Dit valt onder innovatief inkopen. Doe dat eerst in een gebied waar heel weinig risico bestaat. Maar feit is dat dit soort systemen juist ook mensen kunnen helpen.” Sandboxes Het is zaak om reële risico’s in te dammen, bijvoorbeeld door AI niet voeden met opdrachten die vertrouwelijke informatie of persoonsgegevens kunnen lekken naar systemen. Dat is een reëel risico, want alle teksten van de vragen die je stelt worden gebruikt om het model te trainen. Zo verbood Samsung werknemers het gebruik van niet-gecontracteerde AI nadat een softwareontwikkelaar vertrouwelijke broncode meestuurde in zijn vraag aan ChatGPT. Die broncode dook vervolgens op bij andere gebruikers. Nummer 49, januari 2024 53 Kees van der Klauw: “Regering loopt achter de feiten aan met een verbod.” beeld: jurgen van hoof

54 Online Touch Home


You need flash player to view this online publication