43

COLUMN Stille ramp Ethiek moet niet worden ingezet om iets te voorkomen, maar juist om iets te bewerkstelligen Er is binnen de overheid heel veel aandacht voor algoritmes, en dat gaat hand in hand met de hype rondom generatieve AI. Er wordt mee geëxperimenteerd: ‘Hoe zou het zijn als we hier een algoritme voor inzetten?’ Twinkelende ogen. Dat geëxperimenteer kun je nu niet meer doen zonder ‘iets’ aan ethiek te doen (of daarover te jabberwockyën), dat besef lijkt wel doorgedrongen. Dus het moet wel ‘verantwoord’. De IAMA staat goed op de kaart, wat op zich een goede start is voor het bredere bewustzijn van het mogelijke effect bij de inzet van algoritmes en aandacht daarvoor in de ontwikkeling. Laatst werd ik op een symposium aangekondigd als AI-ethicus. Dat heb ik plenair meteen rechtgezet. Die definitie is mij veel te beperkt. Maar angstaanjagend vind ik hem ook wel. AI-ethiek is voor mij hooguit onderdeel van data-ethiek. Ik hanteer nog altijd de definitie van data-ethiek die Floridi in 2016 neerlegde. Hij maakte heel zorgvuldig onderscheid tussen de ethiek van data (-verzameling, -gebruik, -deling en -verwerking), de ethiek van algoritmes en modellen (toepassing) en de professionele gebruiken die bij de omgang met data horen. De reflectie op data is het uitgangspunt, daarna volgt de toepassing. De focus op de ethiek van algoritmes en modellen gaat vaak gepaard met iets dat ik het ‘technisch perspectief’ op data-ethiek ben gaan noemen. In het ontwerpproces is men zich dan bewust van het gevaar dat er ongewenste vraagstukken in het ontwerp sluipen, denk aan biases in het algoritme of de schending van mensenrechten. Ethiek betekent dan dus het elimineren van fouten of het voorkomen van ellende, veelal via een technische insteek (tool of assessment). Eigenlijk concentreert die ethiek zich rondom het ‘No Harm-principle’. Niet mijn insteek; ethiek moet niet worden ingezet om iets te voorkomen, maar juist om iets te bewerkstelligen. Het gaat er om ergens naartoe te bewegen, in plaats van ergens vanaf. Mijn zorg is dat er een stille ramp aan het ontstaan is door deze focus. De fundamenten, de data, zijn vaak niet goed (kwaliteit) of niet op orde (management en architectuur). ‘Data is dood’, hoor ik Wouter van Aerle geregeld zeggen (en zijn post daarover op LinkedIn ging viral). Er is te weinig aandacht voor data als fundament en de reflectie daarop. Dus de focus op ‘fantastische oplossingen’ op ‘verantwoorde wijze’, is vragen om problemen. Kwestie van tijd. AI gaat dit probleem niet oplossen. AIethiek ook niet. piek knijff Data-ethicus bij Filosofie in actie iBestuur 51, juli 2024 43

44 Online Touch Home


You need flash player to view this online publication