23

LI N DA KO OL IN DE BAN VAN KUNSTMATIGE INTELLIGENTIE In maart hield ik, op uitnodiging van het ministerie van Veiligheid en Justitie, een lezing over kunstmatige intelligentie in de rechtspraak. Mijn verhaal ging over wat slimme systemen wel en niet kunnen en welke vragen dat oproept voor mogelijk gebruik in de rechtspraak. De eerste ‘robotadvocaten’ bestaan immers al, zoals het slimme chatbotje ‘DoNotPay’ dat automatisch verkeersboetes voor je aanvecht. Of ROSS, gebouwd op supercomputer Watson van IBM, die advocaten kan helpen bij juridisch onderzoek. In de Verenigde Staten adviseren slimme systemen rechters over de kans dat een verdachte opnieuw de fout in gaat. Daarmee kan een rechter bijvoorbeeld de condities voor eventueel (vervroegde) vrijlating bepalen. Krijgen we straks ook robotrechters, was een van de vragen van die middag? Kunstmatige intelligentie (AI) is hot. Elke dag verschijnen berichten in de media. Enerzijds over hoe AI serieuze problemen kan oplossen, bijvoorbeeld het vroegtijdig opsporen van ziektes. Anderzijds klinken er waarschuwingen dat door AI de wereld ten onder zal gaan. Dergelijke onheilspellende berichten helpen de discussie over een zinvolle inzet van AI niet veel verder. ‘Slim zijn’ wordt verward met ‘mens zijn’. Pedro Domingos, informaticaprofessor stelt dan ook: “People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve already taken over the world.” De hypothetische horrorscenario’s van morgen blokkeren het zicht op de uitdagingen van vandaag. We vergeten dat AI nu al overal wordt toegepast. Op de fi nanciële beurs, zoekmachines op internet of voor dynamische prijsbepaling. Die inzet van AI roept overal prangende vragen op. Want slimme systemen blijken bijvoorbeeld soms onbedoeld te discrimineren, zoals dat systeem dat rechters in de Verenigde Staten gebruiken. Verder weten we dat in ICT-systemen fouten kunnen sluipen en dat die soms bijzonder lastig zijn te herstellen. Zo kunnen automatische systemen die boetes innen, zeer schrijnende gevolgen voor burgers hebben. AI blijft een vorm van statistiek, van kansberekening. Er is altijd een kans dat het systeem het niet goed heeft. In Nederland hoor je nog weinig over hoe wij met deze praktische uitdagingen van AI om willen gaan. Elders in Europa is dat wel het geval. Het parlement van de Raad van Europa - hoeder van de mensenrechten in Europa - stemde in april unaniem in met aanbevelingen aan de Raad over dit onderwerp. Centrale boodschap: slimme systemen mogen mensenrechten niet onder druk zetten. Concreet roept het parlement de Raad op om (naast vele andere zaken) richtlijnen te ontwikkelen voor de accountability van slimme systemen, zodat de verantwoordelijkheid en de aansprakelijkheid voor slimme systemen te allen tijde bij mensen ligt. Verwijzingen naar ‘onafhankelijke’ systemen kunnen de ontwerpers, ontwikkelaars en beheerders van deze systemen niet ontslaan van deze verantwoordelijkheid. Het parlement riep de Raad ook op tot het ontwikkelen van een gezamenlijk raamwerk, waaraan het gebruik van AI in de rechtszaal moet voldoen. W I O De bijeenkomst van het ministerie van Veiligheid en Justitie bleek dus tijdig georganiseerd. Voorlopig werkt het ministerie hard om de rechtsgang en de werkprocessen verder te digitaliseren. In de komende jaren zal ook de inzet van kunstmatige intelligentie meer vorm krijgen. Ik hoop dat het ministerie het uitgangspunt van het parlement van de Raad van Europa daarbij als leidraad neemt: de beschermenswaardigheid van de mens centraal. Linda Kool is senior onderzoeker bij het Rathenau Instituut

24 Online Touch Home


You need flash player to view this online publication