COLUMN Zwakste schakel Gaandeweg beseffen we dat alle toegang blokkeren niet de oplossing is Een indrukwekkende roller coaster, dat is AI op dit moment zeker. In ruim een jaar groeiden we collectief van verbazing, enthousiasme en fear of missing out, toe naar het besef dat we AI vooral ook verantwoord moeten gebruiken. Experts (vaak zelfbenoemd) – of ‘influencers’ – komen met adviezen (of halen deze uit ChatGPT…). Hoewel de opsommingen vaak best een aardig startpunt zijn, is de meerwaarde beperkt. Je kunt maar beter op zoek gaan naar experts die zelf met de voeten in de modder hebben gestaan. Je moet het immers eerst zelf fout gedaan hebben voordat je het ergens anders beter kan. Een mooi voorbeeld van het verschil tussen theorie en praktijk is de discussie over het beheersen van de risico’s rondom AI. Doen we dat gebaseerd op regels, met een gedetailleerde beschrijving van wat wel en niet mag? Of gebaseerd op principes, door mensen hun eigen verantwoordelijkheid te geven, ze bewust te maken van kansen en risico’s en ze op te leiden. Beide benaderingen hebben hun grenzen, zo laat de praktijk rondom een aantal nieuwe Microsoft producten zien. k ‘voeden’ aan AI tools, of met principes zorgen dat medewerkers daar zelf goed over nadenken. Echter, wat gebeurt er zodra een gebruiker een nieuwe versie van Bing Chat krijgt voorgeschoteld met een paar keurige vinkjes waarmee Microsoft (waarschijnlijk terecht) claimt dat deze toepassing ‘geschikt is voor het veilig inbrengen van bedrijfs- en privacy gevoelige data’? De groene vinkjes lijken aan te geven dat aan de regels is voldaan. Ook de op principes gebaseerde aanpak gaat nat, want een weldenkende medewerker zal redeneren dat een partij als we ‘v zo nad geb krijg vink tere is vo priv lijke vold aan med Micr Microsoft zo’n claim niet zomaar maakt. Ander voorbeeld: Microsoft Copilot heeft alleen rechten om data te gebruiken waar jij als gebruiker in je eigen omgeving toegang toe hebt. Dat klinkt mooi, maar (de toegangsrechten tot) die data zijn in veel gevallen ontstaan toen er nog geen sprake was van enthousiast grazende AI tools. Ook hier is goed risicomanagement dus lastig: volgens de regels heb je immers toegang tot die data, en volgens de principes zou de data waar je toegang toe hebt niet onverantwoord moeten zijn. Daar sta je dan met je principes of je regels. Geen opsomming op sociale media die daar tegen helpt… gev risic heb rond prod kunt bijvoorbeeld scherp definiëren welke data je wel en niet kunt Een vergelijking met de historie van cybersecurity dringt zich op. Dat begon vooral met technische oplossingen om indringers te weren. Gaandeweg beseften we dat alle toegang blokkeren ook niet de oplossing was en gingen we investeren in bewustzijn en kennis van de gebruikers. Pas daarna, toen voldoende praktijkervaring was opgedaan, werd het motto dat 100 procent zekerheid niet haalbaar is. De zogenaamde ‘cost of control’ is sindsdien het paradigma en dus zetten we naast preventie ook in op een goede respons om de gevolgen van incidenten te beperken. Misschien is die analogie wel een-op-een te kopiëren naar het temmen van AI? sander klous Hoogleraar Big Data Ecosystems, UVA en partner bij KPMG iBestuur 50, april 2024 19
20 Online Touch Home