Die U.S. Central Intelligence Agency (CIA) bestätigte, dass sie an der Entwicklung eines auf generativer KI basierenden Chatbots nach dem Vorbild von ChatGPT arbeitet.
Mit dem von der Open Source Enterprise Unit der CIA entwickelten virtuellen Assistenten sollen die Analysten des Geheimdienstes bei der Durchsicht von Open Source Intelligence und öffentlichen Informationen zur Optimierung ihrer Ermittlungen unterstützt werden.
Dadurch sollen menschliche Ermittler zur schnellen Interpretation großer Datensätze befähigt werden.
Der Direktor der KI-Einheit der CIA, Randy Nixon, erklärte gegenüber Bloomberg:
„Wir sind von Zeitungen und Radio zu Zeitungen und Fernsehen übergegangen, zu Zeitungen und Kabelfernsehen, zum einfachen Internet und zu Big Data, und es geht immer weiter. Wir müssen Nadeln im Nadelöhr finden. Das Ausmaß dessen, was wir sammeln und wie viel wir sammeln, ist in den letzten mehr als 80 Jahren astronomisch gewachsen. So sehr, dass dies für unsere Verbraucher entmutigend und bisweilen unbrauchbar sein könnte.“
KI-Copiloten werden zum Mainstream
Die Ankündigung kam zu einem Zeitpunkt, als China seine KI-gestützten Überwachungsmöglichkeiten ausbaute. Laut Reuters haben Dutzende chinesischer Unternehmen mit dem Einsatz von KI zum Sortieren der über die Einwohner gesammelten Daten begonnen.
Aus dieser Perspektive ist die Entwicklung eines von ChatGPT inspirierten virtuellen Assistenten ein Versuch, sicherzustellen, dass China keinen automatischen Überwachungsvorteil hat.
Ganz allgemein zeigt die Entscheidung der CIA, mit generativer KI zu experimentieren, wie sich die Einführung großer Sprachmodelle (engl. Large Language Models, LLMs) sowohl im privaten als auch im öffentlichen Sektor beschleunigt.
So wie Suchmaschinen zu einem „Every-Data-Tool“ für professionelle Datenverarbeiter geworden sind, entwickeln sich generative KI-„Copiloten“ zu einem zentralen Werkzeug, das menschlichen Nutzern die Möglichkeit zur Zusammenfassung und Interpretation umfangreicher Datensätze und zur Erkennung wiederkehrender Muster bietet.
So berichtet OpenAI, dass im Unternehmenssektor 80 % der Fortune 500-Unternehmen mit ChatGPT experimentieren.
Auch wenn keine Organisation der anderen gleicht, ist eine der zentralen Herausforderungen, die generative KI angeht, die Notwendigkeit, „Nadeln im Nadelöhr zu finden“, was immer schwieriger wird.
Daten sinnvoll nutzen
Seit Jahren haben Unternehmen Schwierigkeiten, die großen Mengen an gesammelten Daten zu verarbeiten.
Einigen Schätzungen zufolge machen unstrukturierte Daten 80–90 % der Geschäftsdaten aus. Dabei handelt es sich um Daten, die von einem menschlichen Nutzer oder Stakeholder auf einer bestimmten Ebene verstanden werden müssen.
Generative KI hilft dabei, isolierte Datensignale richtig zu deuten, indem sie in natürlicher Sprache beschreibt, worum es sich bei dem jeweiligen Vorgang handelt.
Zwei Anbieter haben diesen Ansatz auf den Punkt gebracht: So setzt Google Sec-PaLM LLMs ein, um dem Benutzer mitzuteilen, ob ein Skript bösartig ist oder nicht.
Microsoft Security Copilot nutzt diese Technologie, um Bedrohungssignale aus dem gesamten Unternehmensnetzwerk zusammenzufassen.
Im Falle der CIA können LLMs Daten aus unterschiedlichen Quellen im offenen Web verarbeiten. Sie unterstützen die Ermittler dabei, isolierte Informationen in den richtigen Kontext einzuordnen und Muster zu erkennen, indem sie als Copilot fungieren.
Die Nutzer können dem Chatbot Fragen in natürlicher Sprache stellen und erhalten kohärente Antworten, die ihnen bei ihren Ermittlungen helfen.
Probleme auf dem Weg in die Zukunft
Obwohl generative KI ein großes Potenzial zur Unterstützung von Unternehmen und Organisationen des öffentlichen Sektors bei der Verarbeitung großer Datensätze bietet, wirft sie auch einige ernsthafte ethische Bedenken auf.
Eines der Hauptprobleme ist die Frage, ob personenbezogene Daten (engl. Personal Identifiable Information, PII) eines Nutzers aus dem öffentlichen Web ausgelesen werden.
Wenn es sich um ein Blackbox-KI-Modell handelt, das der Öffentlichkeit nicht offengelegt wird, welche Sicherheitsvorkehrungen gibt es dann, um sicherzustellen, dass die CIA KI ethisch und verantwortungsvoll einsetzt?
Gibt es Maßnahmen zur Verhinderung der Erhebung oder Verarbeitung von Daten, zu der sie nicht befugt ist – ein Bereich, für den die EU die NSA in der Vergangenheit kritisiert hat?
Ebenso kann es sich die CIA nicht leisten, einige der erheblichen Schwächen moderner Sprachmodelle zu übersehen, wie z. B. deren Fähigkeit, Fakten und Zahlen zu halluzinieren oder zu erfinden.
„Der verrückte betrunkene Freund“
Glücklicherweise scheint die CIA diese Einschränkungen als Teil ihrer Roadmap anzuerkennen.
Wie der CTO der CIA, Nand Mulchandani, auf dem Billington Cybersecurity Summit erklärte, ist generative KI zwar ein nützliches Werkzeug zum Erkennen von Mustern in großen Datensätzen, aber in „Bereichen, in denen Präzision erforderlich ist“, könnten die User „herausgefordert“ sein.
Mulchandani schlug zwar vor, dass Geheimdienstanalysten Chatbots wie den „verrückten betrunkenen Freund“ behandeln und ihren Output genau unter die Lupe nehmen, doch die Tendenz dieser Tools, Fehlinformationen zu verbreiten, stellt für Überwachungsorganisationen nach wie vor ein ernstes Risiko dar.
Wenn Unternehmen die Verbreitung falscher Tatsachen zulassen, kann dies schwerwiegende Auswirkungen auf ihren Ruf und die Rechtslage haben.
In einem nationalen Sicherheitskontext ist der Spielraum für Fehler viel geringer. Schon ein einziges Szenario, in dem ein Geheimdienstanalyst es versäumt, Fakten zu überprüfen, bevor er auf falsche Informationen reagiert, könnte verheerende Folgen für die reale Welt haben.