Was bedeutet Black Box KI?
Black Box-KI ist jede Art von künstlicher Intelligenz (KI), die so komplex ist, dass ihr Entscheidungsprozess nicht so erklärt werden kann, dass er für Menschen leicht verständlich ist. Black Box-KI ist das Gegenteil von erklärbarer KI (XAI).
Zu den Ursachen für Black Box-KI gehören:
- Proprietäre IT – das Innenleben eines KI-Modells wird zum Schutz des geistigen Eigentums geheim gehalten.
- Deep Learning – Tiefe neuronale Netze (DNNs) und Deep-Learning-Algorithmen erzeugen Tausende (und manchmal Millionen) von nichtlinearen Beziehungen zwischen Eingaben und Ausgaben. Die Komplexität der Beziehungen macht es für einen Menschen schwierig zu erklären, welche Merkmale oder Interaktionen zu einem bestimmten Ergebnis geführt haben.
Black Box-KI ist aus einer Reihe von Gründen unerwünscht. Wenn die interne Funktionsweise eines KI-Systems nicht verstanden wird, wird es immer schwieriger zu erkennen, warum ein KI-Modell verzerrte Ergebnisse produziert und wo Logikfehler auftreten. Erklärbare KI findet Einsatz zum Beispiel bei AI Crypto Coin Projekten. Hier erfüllen sie Aufgaben wie das Voraussagen vorn Kursentwicklungen und ähnliches.
Es ist schwierig zu bestimmen, wer zur Verantwortung gezogen werden sollte, wenn die Ergebnisse fehlerhaft oder sogar gefährlich sind.
Techopedia erklärt Black Box KI
Wenn ein KI-System transparent und interpretierbar ist, fällt es leichter, Vertrauen in die Integrität des Systems und die Genauigkeit seiner Ergebnisse zu haben. Transparenz und Interpretierbarkeit können durch eine Vielzahl von Ansätzen erreicht werden.
Zum Beispiel durch die Entwicklung und Verwendung von Algorithmen, die für Menschen leicht verständlich sind, durch die Sicherstellung, dass menschliches Feedback immer eine Rolle im Entscheidungsprozess spielt, und durch die Entwicklung von Tools, die visuelle Erklärungen dafür liefern, wie eine KI-Anwendung zu einer Entscheidung kommt.
Zu den beliebten Tools, die entwickelt werden, um Black Box-KI zu verhindern und verantwortungsvolle KI zu gewährleisten, gehören:
- LIME (Local Interpretable Model-Agnostic Explanations)
- SHAP (SHapley Additive ExPlanungen)
- ELI5 (Explain like I am 5)
- DALEX (Descriptive mAchine Learning EXplanations)
Anmerkung des Herausgebers: Gemäß dem Apple Style Guide sollten Autoren den Begriff Black Box vermeiden und stattdessen die Begriffe Closed Box oder Opaque Box verwenden. Der Verfasser dieser Definition möchte “mystery box” als Ersatzbezeichnung vorschlagen.