Erklärbare KI (XAI)

Was ist Erklärbare KI (XAI)?

Erklärbare KI (engl. Explainable AI, kurz: XAI) ist künstliche Intelligenz, die dokumentieren kann, wie bestimmte Ergebnisse erzeugt wurden, und zwar so, dass der Prozess auch für normale Menschen nachvollziehbar ist. 

Mit XAI soll sichergestellt werden, dass Programme der künstlichen Intelligenz sowohl hinsichtlich ihres Zwecks als auch ihrer Funktionsweise transparent sind.

Erklärbare KI stellt ein gemeinsames Ziel für Datenwissenschaftler und Ingenieure für maschinelles Lernen dar.

Sie ist einer der fünf Hauptgrundsätze, die das Vertrauen in KI-Systeme kennzeichnen. Zu den weiteren vier Prinzipien gehören:

  • Ausfallsicherheit
  • Keine maschinelle Verzerrung
  • Reproduzierbarkeit
  • Rechenschaftspflicht

Erklärbare künstliche Intelligenz ist ein wichtiger Bestandteil der Ethik beim Einsatz von KI in der Wirtschaft.

Die Idee hinter erklärbarer KI ist, dass KI-Programme und -Technologien keine Black-Box-Modelle sein sollten, die Menschen nicht verstehen können.

Erklärbare KI unterstützt verantwortungsvolle KI, indem sie ein akzeptables Maß an Transparenz und Rechenschaftspflicht für Entscheidungen komplexer KI-Systeme bietet.

Dies ist besonders wichtig, wenn es um KI-Systeme geht, die einen erheblichen Einfluss auf das Leben der Menschen haben. 

Dies gilt vor allem für KI-Anwendungen und -Dienste, die im Gesundheitswesen, Finanzsektor, Personalmanagement und in der Strafjustiz eingesetzt werden.

Explainable AI einfach erklärt

Erklärbarkeit und Interpretierbarkeit werden in der Alltagssprache oft als Synonyme verwendet, wenn es um künstliche Intelligenz geht.

Technisch gesehen sind erklärbare und interpretierbare KI-Modelle jedoch recht unterschiedlich.

Wie funktioniert Erklärbare KI?

Nichtlinearität, Komplexität und hochdimensionale Eingaben können ein KI-Modell so kompliziert machen, dass es für die Datenwissenschaftler und Ingenieure für maschinelles Lernen, die es entwickeln und implementieren, kaum nachvollziehbar wird, wie ihr KI-Modell zu einer Entscheidung gekommen ist.

  • Nichtlinearität: Einige KI-Modelle, wie z. B. tiefe neuronale Netze, verwenden zur Erzeugung von Ergebnissen nichtlineare Funktionen, was wiederum dazu führt, dass ihr Entscheidungsprozess nichtlinear und schwer zu interpretieren ist.
  • Komplexität: KI-Systeme, insbesondere auf der Grundlage von Deep Learning, können Millionen von Parametern und Hyperparametern umfassen.
  • Hochdimensionale Eingaben: Beim Einsatz von KI für Bilder, Audio- oder Videodaten ist die große Anzahl von Merkmalen, die in den Entscheidungsprozess einfließen, schwer zu visualisieren.

Das mangelnde Verständnis für die Funktionsweise eines KI-Systems ist einer der Gründe, warum Verbraucher kein Vertrauen in KI haben und weswegen Aufsicht und Governance so wichtig sind.

Zur Bewältigung dieser Herausforderungen arbeiten Forscher an der Entwicklung von Methoden zur Erklärung komplexer KI-Entscheidungen. 

Zu den beliebten Ansätzen gehören die Konzipierung von KI-Systemen, die eigenständig für Menschen lesbare Erklärungen ihrer Entscheidungsprozesse generieren können, sowie die Programmierung von KI-Systemen, die Visualisierungen der Daten und Funktionen bereitstellen können, die sie zur Erzeugung von Ergebnissen verwenden.

Erklärbarkeit vs. Interpretierbarkeit bei KI

Erklärbarkeit und Interpretierbarkeit werden häufig als Synonyme verwendet, wenn es um künstliche Intelligenz im Alltag geht.

Doch technisch gesehen sind erklärbare KI-Modelle und interpretierbare KI-Modelle völlig voneinander zu unterscheiden.

Ein interpretierbares KI-Modell trifft Entscheidungen, die von einem Menschen verstanden werden können, ohne dass zusätzliche Informationen erforderlich sind.

Mit genügend Zeit und Daten wäre ein Mensch in der Lage, die Schritte nachzuvollziehen, die eine interpretierbare KI für eine Entscheidung benötigt.

Im Gegensatz dazu ist ein erklärbares Modell so kompliziert, dass ein Mensch nicht verstehen kann, wie das Modell zu einer Vorhersage kommt, ohne dass er eine Analogie oder eine andere für den Menschen verständliche Erklärung für die Entscheidungen des Modells erhält.

Selbst wenn einem Menschen unendlich viel Zeit und Daten zur Verfügung stünden, wäre er theoretisch nicht in der Lage, die Schritte nachzuvollziehen, die eine erklärbare KI unternimmt, um zu einer Entscheidung zu gelangen.

Verwandte Begriffe

Margaret Rouse

Margaret Rouse ist eine preisgekrönte technische Autorin und Dozentin. Sie ist für ihre Fähigkeit bekannt, komplexe technische Themen simpel und nachvollziehbar zu erklären. In den letzten zwanzig Jahren sind ihre Erklärungen auf TechTarget-Websites erschienen und sie wurde in Artikeln der New York Times, des Time Magazine, USA Today, ZDNet, PC Magazine und Discovery Magazine als Quelle und Expertin zitiert. Wenn Sie einen Vorschlag für eine neue Definition haben oder eine technische Erklärung verbessern möchten, schicken Sie einfach Margaret eine E-Mail oder kontaktieren Sie sie auf LinkedIn oder Twitter.