91

Er zijn AI-tools die van een enkele afbeelding levensechte video’s kunnen creëren. BEELD: EGOR ZAKHAROV Responsible AI Transparancy-rapport In het eerste – vanaf nu jaarlijkse – Responsible AI Transparancy-rapport beschrijft Microsoft hoe het responsible AI ontwikkelt en op welke wijze klanten en gebruikers worden ondersteund bij het bouwen en gebruiken van verantwoorde AI-systemen. Het rapport schetst onder meer best practices voor gebruik, risicobeheersmaatregelen voor generatieve AI-modellen en aanbevelingen voor overheden om AI-systemen veilig en verantwoord te beheren en reguleren. Meer weten? Download het Responsible AI Transparency-rapport. 3 Verwacht dat mensen dingen stukmaken Organisaties kunnen hierdoor op verantwoorde wijze GenAI-systemen bouwen, beoordelen, implementeren en beheren. Met Azure AI Content Safety kunnen klanten bijvoorbeeld haatdragende en gewelddadige inhoud filteren. Een nieuwe set tools voor Azure AI Studio helpt organisaties bovendien om de veiligheid en betrouwbaarheid van custom GenAI-systemen te verbeteren. Onder meer kan een ‘hallucinatie’ van het model worden gedetecteerd. De les? Een groeiend aantal organisaties bouwt eigen GenAI-systemen. Om de kwaliteit en veiligheid te verbeteren, kunnen organisaties nu putten uit Microsofts eigen responsible AI-gereedschapskist. ‘Jailbreaks’ lijken een wetmatigheid: er zullen altijd mensen zijn die proberen de beschermingsmaatregelen van AImodellen te omzeilen. Microsoft gaat dit te lijf door mogelijke kwetsbaarheden te onderzoeken voordat AIproducten worden geüpdatet én door altijd de nieuwste tools te verstrekken aan klanten, zodat zij hun custom AI-toepassingen binnen Azure beter kunnen beschermen. Dankzij patroonherkenning kunnen nieuwe modellen van Microsoft zelfs jailbreaks herkennen en blokkeren. Een ander recent model voorkomt aanvallen waarbij het AI-systeem wordt overgenomen door instructies in prompts te ‘injecteren’. De les? Verken je de grenzen van technologie, dan loop je geheid tegen oneigenlijk gebruik aan. Microsoft werkt daarom voortdurend aan nieuwe oplossingen, zoals jailbreak-proof AI-modellen. Gevolg is dat organisaties continu moeten kijken naar extra veiligheidsfuncties binnen nieuwe modellen. 4 Informatie over de grenzen van AI AI is niet perfect. Gebruikers zouden kunstmatig gegeneerde inhoud moeten verifiëren. Microsoft vereeenvoudigt dit door bij elke chat-output links naar de geraadpleegde bronnen toe te voegen. Sinds 2019 biedt het bedrijf via 'transparantienotities' informatie aan over (onder meer) de mogelijkheden en beperkingen voor verantwoord toepassen van AI. Gebruiksvriendelijke mededelingen binnen producten ondersteunen gebruikers bovendien bij veilige en verantwoorde omgang met AI. De les? AI laat soms steekjes vallen. Transparantie over de beperkingen van AI is daarom belangrijk. Idealiter controleren gebruikers standaard of informatie juist is - om die reden linkt Microsoft naar de bron. lees de volledige blogpost  Alle zeven lessen lezen, óók die over de ontwikkeling van responsible AI in bredere zin. iBestuur 51, juli 2024 91

92 Online Touch Home


You need flash player to view this online publication