23

LVV 25 JAAR Alleen met voldoende kennis van AI-systemen kunnen Organisaties kunnen een uitzondering krijgen voor beperkte toepassingen, zoals kwaliteitsverbetering van menselijk werk of voorbereidende taken. Deze uitzonderingen gelden echter niet als AI gebruik maakt van persoonsprofielen. 1 2 3 Verboden AI: Toepassingen zoals biometrische identificatie in openbare ruimtes of emotieherkenning bij werknemers zijn niet toegestaan. Hoogrisico AI: In Bijlage III van de wet staan twintig toepassingen, zoals toegang tot onderwijs, recruitment en rechtshandhaving. Deze vereisen strikte naleving van compliance-eisen. Transparantierisico: Alle AI-systemen moeten duidelijk maken dat ze AI zijn. Content die door AI is gegenereerd, moet worden gemarkeerd als ‘synthetisch’. Wat betekent dit voor vertrouwenspersonen? De AI Act is vanaf 1 augustus 2024 van kracht, met een gefaseerde invoering. Vanaf februari 2025 geldt een verbod op ‘verboden’ AI, en organisaties moeten hun medewerkers trainen in AI-risico’s. De regels voor hoogrisico AI volgen in augustus 2026. Vanaf dan mogen hoogrisico AI-systemen alleen worden ingezet als ze een conformiteitsbeoordeling hebben doorstaan, te herkennen aan het CE-logo. Voor vertrouwenspersonen is één artikel in het bijzonder relevant. Artikel 87 bepaalt dat meldingen over AI-gerelateerde misstanden onder de Wet bescherming klokkenluiders vallen. Dit kunnen klachten zijn over discriminatie door AI of het verplicht gebruiken van AI zonder adequate training. Daarnaast vereist dit nieuwe terrein dat vertrouwenspersonen zelf AI-geletterd zijn. Alleen met voldoende kennis van AI-systemen kunnen zij medewerkers goed ondersteunen en signalen over grensoverschrijdend gedrag serieus nemen. Tegelijk roept AI nieuwe dilemma’s op, zoals de logging en het toezicht binnen AI-systemen, die de vertrouwelijkheid van meldingen kunnen raken. Een toekomst met verantwoord AI-gebruik Met de AI Act zet de EU een ambitieus kader neer om AI veilig, transparant en ethisch verantwoord in te zetten. Voor vertrouwenspersonen betekent dit niet alleen nieuwe verantwoordelijkheden, maar ook een belangrijke rol in het begeleiden van organisaties en medewerkers bij de uitdagingen van AI. vertrouwenspersonen medewerkers goed ondersteunen wet. Pas als een product op de markt wordt gebracht – zelfs gratis – zijn de regels van toepassing. Voor organisaties die bestaande AI-modellen zoals ChatGPT of Copilot inzetten, geldt dat ze de wet moeten volgen als ze een hoogrisico-toepassing realiseren. Hierbij maakt het niet uit hoeveel technologie van derden afkomstig is. Hoe bepaal je het risico? De AI Act hanteert drie risicocategorieën: 23 Illustratie Guoya

24 Online Touch Home


You need flash player to view this online publication