30

De mening van anderen lijkt een rol te spelen bij het (willen) gebruiken van een coaching chatbot bijvoorbeeld met alle data die de coaching chatbots verzamelen door de gesprekken die worden gevoerd? Hoe wordt die data bewaard en wie heeft er allemaal toegang tot die data? Het zijn ethische vraagstukken waar duidelijke richtlijnen voor nodig zijn. Inmiddels wordt er hard gewerkt aan dergelijke richtlijnen, zie kader. Ethische richtlijnen voor AI binnen Coaching In juli kwam EMCC Global (European Mentoring and Coaching Council) met richtlijnen voor werken met AI. Deze zijn hier te vinden. Ook NOBCO werkt inmiddels aan een ethisch manifest voor AI binnen coaching. Wat vinden de anderen? Je zou kunnen zeggen dat een gezonde kritische houding ten opzichte van AI binnen coaching dus gegrond is en er goede redenen zijn om niet in zee te gaan met een kunstmatige coach. Maar laten mensen zich daar inderdaad door leiden bij de keuze om wel of niet gebruik te maken van een Mo, Vici of Aimy? Nicky Terblanche en zijn collega’s deden daar onderzoek naar. Zij keken naar een aantal factoren die vaak een rol spelen bij de zogenaamde ‘adoptie’ van nieuwe technologieën. Daarbij blijkt bijvoorbeeld het gedrag en de mening van anderen een rol te kunnen spelen: hebben mijn vrienden ook die nieuwe VR-bril of juist niet? Wat ook een belangrijke rol kan spelen is of mensen het idee hebben dat de nieuwe technologie meerwaarde heeft: wat levert het dus op, om die nieuwe VR-bril te gebruiken? Maar ook het gebruiksgemak, eventuele risico’s van het gebruik en de juiste omstandigheden om de technologie te gebruiken kunnen relevant zijn. Een VR-bril is voor iemand zonder enige computerkennis bijvoorbeeld niet zo interessant. De onderzoekers keken in hoeverre dit soort zaken belangrijk waren voor mensen om gebruik te willen maken van coaching chatbot Vici. Wat bleek: Vooral de mening van anderen, de verwachte meerwaarde en de juiste omstandigheden (zoals toegang tot internet) waren van belang. Wat geen noemenswaardige rol speelde was het gebruiksgemak en mogelijke risico’s. Zaken zoals privacy of vertrouwelijkheid leken voor de deelnemers dus geen rol te spelen bij de intentie om de chatbot te blijven gebruiken. Hoewel er dus wel degelijk ethische kanttekeningen te maken zijn bij het gebruik van een coaching chatbot, leken de deelnemers uit het bovenstaande onderzoek zich daar niet echt door te laten leiden. Een kanttekening van het onderzoek is dat niet naar daadwerkelijk gebruik werd gekeken maar naar de intentie die mensen hadden om gebruik te blijven maken van de coaching chatbot. Toch geven de resultaten een eerste inzicht in de factoren die belangrijk kunnen zijn bij de adoptie van een coaching chatbot. Bedreiging of kans? Dat AI ook binnen coaching zijn intrede heeft gedaan staat buiten kijf. Kan AI binnen coaching een bedreiging zijn voor de menselijk coach? Dat ligt eraan hoe je het bekijkt. Het eerste onderzoek dat is gedaan lijkt erop te wijzen dat een coaching chatbot effectief kan zijn bij het bereiken van doelen. Maar het kan goed zijn dat bij complexere vraagstukken de betrokkenheid van een menselijke coach onmisbaar is en blijft. Ook kunnen coaching chatbots heel goed worden ingezet als aanvulling op een coachingtraject. Zo kunnen ze een coachee ondersteunen bij het nastreven van doelen tussen verschillende coachsessies door. Naast coaching

31 Online Touch Home


You need flash player to view this online publication