Wat betekent Explainable AI (XAI)?
Explainable AI (XAI), oftewel verklaarbare kunstmatige intelligentie, is kunstmatige intelligentie die kan documenteren hoe specifieke uitkomsten zijn gegenereerd op zo’n manier dat gewone mensen het proces kunnen begrijpen. Het doel van XAI is ervoor te zorgen dat kunstmatige intelligentieprogramma’s transparant zijn over zowel het doel dat ze dienen als hoe ze werken.
XAI is een gemeenschappelijk doel voor datawetenschappers en machine learning-ingenieurs. Het is een van de vijf belangrijkste principes die het vertrouwen in AI-systemen karakteriseren. De andere vier principes zijn:
- Veerkracht
- Gebrek aan machine bias
- Reproduceerbaarheid
- Verantwoordingsplicht
Explainable AI is een belangrijk onderdeel van het toepassen van ethiek op AI-gebruik in het bedrijfsleven. Het idee achter explainable AI is dat AI-programma’s en -technologieën geen black box-modellen moeten zijn die mensen niet kunnen begrijpen.
Verklaarbare kunstmatige intelligentie ondersteunt verantwoorde kunstmatige intelligentie door een acceptabel niveau van transparantie en verantwoordelijkheid te bieden voor beslissingen die worden genomen door complexe kunstmatige intelligentie systemen. Dit is vooral belangrijk als het gaat om AI-systemen die een significante impact hebben op het leven van mensen, met name AI-toepassingen en -diensten die worden gebruikt in de gezondheidszorg, financiën, human resource management en strafrecht.
Techopedia legt uit wat verklaarbare AI (XAI) is
Verklaarbaarheid en interpreteerbaarheid worden vaak als synoniemen gebruikt wanneer in het dagelijks spraakgebruik wordt gesproken over kunstmatige intelligentie, maar technisch gezien zijn verklaarbare AI-modellen en interpreteerbare AI-modellen heel verschillend.
Hoe werkt Explainable AI?
Niet-lineariteit, complexiteit en hoog-dimensionale invoer kunnen een AI-model zo ingewikkeld maken dat het voor de datawetenschappers en machine learning-ingenieurs die het ontwerpen en implementeren al snel onmogelijk wordt om te begrijpen hoe hun verklaarbare AI-model tot een beslissing is gekomen.
Niet-lineariteit: Sommige AI-modellen, zoals diepe neurale netwerken, gebruiken niet-lineaire functies om outputs te produceren, waardoor hun besluitvormingsproces niet-lineair en moeilijk te interpreteren is.
Complexiteit: AI-systemen, vooral die op basis van deep learning, kunnen miljoenen parameters en hyperparameters bevatten.
Hoogdimensionale invoer: Wanneer AI wordt toegepast op afbeeldingen, audio of video, wordt het enorme aantal kenmerken dat wordt gebruikt in het besluitvormingsproces moeilijk te visualiseren.
Het gebrek aan inzicht in hoe een AI-systeem werkt, is een van de redenen waarom consumenten AI niet vertrouwen en waarom toezicht en governance zo belangrijk zijn.
Om deze uitdagingen aan te pakken, werken onderzoekers aan methoden om complexe AI-beslissingen uit te leggen. Populaire benaderingen om complexe AI-modellen verklaarbaar te maken zijn onder andere het ontwerpen van AI-systemen die zelf leesbare verklaringen van hun besluitvormingsprocessen kunnen genereren en het ontwerpen van AI-systemen die visualisaties kunnen bieden van de gegevens en functies die ze gebruiken om output te produceren.
Verklaarbaarheid vs. interpreteerbaarheid in AI
Verklaarbaarheid en interpreteerbaarheid worden vaak als synoniemen gebruikt wanneer in het dagelijkse spraakgebruik over kunstmatige intelligentie wordt gesproken, maar technisch gezien zijn verklaarbare AI-modellen en interpreteerbare AI-modellen heel verschillend.
Een interpreteerbaar AI-model neemt beslissingen die door een mens kunnen worden begrepen zonder dat er extra informatie nodig is. Met genoeg tijd en gegevens zou een mens de stappen die interpreteerbare AI neemt om tot een beslissing te komen, kunnen repliceren.
Een verklaarbaar model is daarentegen zo ingewikkeld dat een mens niet zou kunnen begrijpen hoe het model een voorspelling doet zonder een analogie of een andere voor mensen begrijpelijke verklaring voor de beslissingen van het model. Theoretisch gezien zou een mens, zelfs als hij oneindig veel tijd en gegevens zou hebben, niet in staat zijn om de stappen te herhalen die verklaarbare AI neemt om tot een beslissing te komen.