19

Menselijke besluitvorming en empathie kunnen bij het genereren van automatische overzichten worden geëlimineerd, en voorspellende modellering wordt van groter belang. Het kan onze waarneming manipuleren en ‘onze gedachten lezen’. Algoritmen worden vaak gebruikt om geautomatiseerde beslissingen te nemen. Een van de risico's hiervan is de kans op een oneerlijke of vooringenomen beslissing, of zelfs discriminatie. Fouten in algoritmen of risicovolle triggers kunnen een grote impact hebben op (foutieve) besluitvorming. De kwaliteit van de gegenereerde gegevens hangt af van de kwaliteit van de codering en configuratie; er kunnen verkeerde gegevens worden gegenereerd op basis waarvan onnauwkeurige beslissingen kunnen worden genomen. Zonder stabiliteit kan een machine learning-model geen voorspellingen doen. Men leert van data uit het verleden, bepaalt de trend en voorspelt de toekomst. Onze tijd en deze samenleving zijn echter niet bepaald zonder verandering. Elke verstoring zorgt ervoor dat veel datamodellen mogelijk onvoldoende functioneren. Dit geldt natuurlijk ook voor wijzigingen in de infrastructuur waar de data staan. Het is van belang dat de integriteit van de data ook bij wijzigingen geborgd blijft. Algoritmen kunnen ook te veel controle in de handen van de verwerkers van deze data leggen, vooringenomenheid in stand houden, filterbubbels creëren, keuzes en creativiteit verminderen. En kan bovendien het besef van eigenaarschap van de data uit het oog verliezen. Goedbedoelde algoritmen kunnen worden gesaboteerd door kwaadwillenden. Algoritmische regelgeving vereist federale uniformiteit, deskundig oordeel en politieke onafhankelijkheid die ook binnen organisatie soms moeilijk te verkrijgen is. Het verwerken van persoonsgegevens met algoritmen Aangezien algoritmen vaak persoonsgegevens verwerken, moet het gebruik van algoritmen voldoen aan landelijke en internationale privacywetgeving op het gebied van verwerking van persoonsgegevens. Ook moet u als organisatie de privacygerelateerde risico’s in kaart brengen en maatregelen nemen om deze te mitigeren. Dit geldt ook wanneer u een project, pilot of test uitvoert. Het doel van privacywetten is dat mensen controle houden over hun persoonlijke gegevens. Deze rechten zijn ook van toepassing als uw persoonsgegevens worden verwerkt door een algoritmisch systeem. U heeft bijvoorbeeld recht op informatie en op inzage in uw gegevens. Ook bij het nemen van beslissingen gebaseerd op uw data heeft u recht op een menselijke blik en persoonlijke toetsing. Dit betekent dat een bedrijf of organisatie niet automatisch een beslissing mag nemen die voor u van belang is, maar dat hier een medewerker aan te pas moet komen. Wilt u als zorginstelling algoritmische systemen gebruiken bij het verwerken van persoonsgegevens? Dan moet u vooraf bepalen of u kunt voldoen aan de principes van informatiebeveiliging en privacy beveiliging. Het gebruik van informatie (ISO27001 en NEN7510) en privacy (ISO27701) beveiligingsstandaardscan helpt u daarbij en kijkt daarbij samen met u naar de volgende aspecten: Context- en stakeholderanalyse (waar staan we? Wat verwachten anderen van ons op het gebied van informatiebeveiliging en privacy?). Risicobeheer en het implementeren van controles om risico's te beperken. Meten en bewaken van de operationele effectiviteit van de mitige rende maatregelen. Gecontroleerde toegang tot applicaties en netwerken, ontwikkeling en onderhoud (van o.a. algoritmen) Communicatiebeveiliging in netwerken, cryptografie en antimalware, dus alleen geautoriseerde personen hebben toegang op een need-to-know basis. Bedrijfscontinuïteitsbeheer bij onvoorziene situaties zoals hacks, overstromingen, stormen, etc. Naleving van wetten, voorschriften, uw eigen organisatiebeleid en contracten. Streeft u naar een certificering op het gebied van informatie- en/of privacy beveiliging? Neemt u dan contact op met een van de certificerende instellingen in Nederland. Meer informatie: https://info.lrqa.com/zorg-en-welzijn-sector 19

20 Online Touch Home


You need flash player to view this online publication