Warum Unternehmen die Nutzung von generativen KI-Tools für Mitarbeiter einschränken

Transparenz
DAS WICHTIGSTE IM ÜBERBLICK

Aufgrund von Bedenken wegen Datenlecks und Zweifeln an der Sicherheit und Zuverlässigkeit von generativen KI-Tools wie ChatGPT haben viele Unternehmen die Nutzung dieser Tools durch Mitarbeiter auf eigenen Systemen verboten. Fälle wie das Datenleck bei Samsung, bei dem sensible Daten versehentlich hochgeladen wurden, verdeutlichen die damit verbundenen potenziellen Risiken. In Anbetracht der hohen Risiken, die mit dem Schutz extrem sensibler und vertraulicher Daten verbunden sind, räumen Unternehmen dem Schutz ihres Rufs Vorrang ein, indem sie stattdessen hausgemachte generative KI-Tools verwenden.

Viele Unternehmen haben ihren Mitarbeitern verboten, generative KI-Tools auf ihren eigenen Systemen zu verwenden. Der Grund dafür sind vor allem Bedenken hinsichtlich des möglichen Verlusts vertraulicher Daten sowie das mangelnde Vertrauen in die Cyber-Resilienz von produktiven KI-Tools wie ChatGPT.

Ein solcher Fall ereignete sich bei Samsung, wo Mitarbeiter Code mit sensiblen Informationen hochluden, was zur Preisgabe vertraulicher Daten führte.

Was sind die Gründe für die Beschränkungen für generative KI-Tools?

Viele Unternehmen arbeiten mit hochsensiblen und vertraulichen Daten, und ihr Ruf hängt vom Datenschutz ab. Das Hochladen von Informationen in generative KI-Tools birgt das Risiko, dass diese Daten an die Öffentlichkeit gelangen. Außerdem gibt es Bedenken hinsichtlich der Sicherheit und Zuverlässigkeit dieser Tools, was Zweifel an ihrer Genauigkeit aufkommen lässt.

Daher haben sich viele Unternehmen dafür entschieden, stattdessen ihre eigenen, intern entwickelten generativen KI-Tools zu verwenden.

Im Folgenden werden einige der Hauptfaktoren für das Verbot von generativen KI-Tools im Detail erörtert.

Potenzielles Datenleck

Einige generative KI-Tools, wie z. B. ChatGPT, raten davon ab, sensible oder persönliche Daten in Prompts zu verwenden. Dies deutet darauf hin, dass diese Tools die Datensicherheit nicht garantieren können.

Top-Manager sind besorgt über die Möglichkeit, dass sensible Daten an die Öffentlichkeit gelangen könnten. Verizon, Northrup Grumman und Samsung gehören zu den Unternehmen, die den Einsatz generativer KI-Tools pauschal verbieten. Die Angst vor einem Angriff ist verständlicherweise hoch.

In der Zwischenzeit hat Apple an der Entwicklung eines eigenen generativen KI-Tools gearbeitet, lässt aber die Verwendung externer Tools nicht zu.

Ungenaue Antworten

Einige generative KI-Tools erzeugen oft ungenaue Antworten. Experten weisen darauf hin, dass solche Tools halluzinieren und Antworten produzieren, die nicht den Tatsachen entsprechen.

Wenn ein Entwickler beispielsweise einen Codeschnipsel abfragt und erwartet, dass das Tool Fehler erkennt, kann es sein, dass es dies nicht tut. Im Zusammenhang mit kritischen Softwarelieferungen können solche Fehler kritisch sein.

Man kann mit Fug und Recht behaupten, dass generative KI-Tools den Unternehmen noch nicht genügend Sicherheit hinsichtlich ihrer Zuverlässigkeit und Robustheit bieten.

Risiko einer verzerrten Ausgabe

Für seriöse Unternehmen ist es von entscheidender Bedeutung, jeden Eindruck von Voreingenommenheit oder Diskriminierung zu vermeiden, da dies ihrer Marke unwiderruflich schaden kann.

Stellen Sie sich das Szenario vor, dass die offiziellen Blogs eines angesehenen Verlagshauses Inhalte veröffentlichen, die eine Voreingenommenheit gegenüber bestimmten rassischen Gruppen erkennen lassen. Das Problem liegt in der Schulungsmethodik von Tools wie ChatGPT, die sich auf von Menschen geschriebene Inhalte stützt, von denen einige voreingenommen oder diskriminierend sind. Daher ist es nicht verwunderlich, dass ChatGPT voreingenommene Ergebnisse liefert. (Lesen sie auch: Wer sind die Konkurrenten von ChatGPT?)

Zu OpenAIs Ehrenrettung sei gesagt, dass es seine Benutzer auffordert, unangemessene Antworten zu melden. Das ist jedoch nicht genug. Kritiker weisen darauf hin, dass OpenAI ChatGPT voreilig veröffentlicht hat, ohne dieses grundlegende Problem angemessen zu lösen, möglicherweise aus kommerziellen Erwägungen heraus.

Konsequenzen aus dem berüchtigten Samsung-Fall

Samsung hat die Verwendung von ChatGPT oder anderen generativen KI-Tools bei seiner Arbeit ausdrücklich untersagt. Aus Gründen des Datenschutzes und der Vertraulichkeit ist es den Mitarbeitern untersagt, Unternehmensdaten oder Code als Eingabeaufforderung zu verwenden.

Bloomberg berichtet, dass ein Memo an die Mitarbeiter über die Verwendung von Unternehmensressourcen in Bezug auf generative KI-Tools verschickt wurde.

In dem Memo heißt es: “Während sich dieses Interesse auf die Nützlichkeit und Effizienz dieser Plattformen konzentriert, gibt es auch wachsende Bedenken hinsichtlich der Sicherheitsrisiken, die von generativer KI ausgehen.”

Zudem fügte Samsung hinzu:

Wir bitten Sie, unsere Sicherheitsrichtlinien gewissenhaft zu befolgen. Wenn Sie dies nicht tun, kann dies zu einer Verletzung oder Kompromittierung von Unternehmensdaten führen, was Disziplinarmaßnahmen bis hin zur Kündigung des Arbeitsverhältnisses zur Folge haben kann.

Selbst wenn Mitarbeiter nicht direkt auf Unternehmensinhalte oder -code zurückgreifen, besteht das Risiko, dass auf abstrahierten Code oder Inhalt zugegriffen und dieser missbraucht wird.

Welchen Ansatz sollten Unternehmen wählen?

So sehr die Reaktionen der Unternehmen auf die generativen KI-Tools ihre Besorgnis um den Schutz ihrer Geschäftsinteressen widerspiegeln, so sehr kann die Tendenz, die Tools zu verbieten, dazu führen, den Kopf in den Sand zu stecken.

Generative KI ist ein zu mächtiges Phänomen, als dass die Unternehmen es sich leisten könnten, es zu ignorieren.

Wie können sie mit generativen KI-Tools umgehen?

  • Einige Unternehmen wie Apple haben die Bedeutung der generativen KI bereits erkannt und die Entwicklung eigener Tools vorangetrieben. Dieser Ansatz hat jedoch seine Vor- und Nachteile. Nicht alle Unternehmen verfügen über die finanziellen Mittel oder die Kapazitäten, um sich auf solche Vorhaben einzulassen. In solchen Fällen kann es praktischer sein, auf bereits vorhandene generative KI-Technologie zurückzugreifen, die bereits verfügbar ist.
  • Es ist wichtig, einen Rahmen zu schaffen, der die Nutzung der generativen KI-Technologie ermöglicht und gleichzeitig die Sicherheitsrisiken effektiv verwaltet. Ein Ansatz könnte darin bestehen, den Mitarbeitern umfassende Schulungen zum Thema Prompt-Engineering anzubieten. Dadurch wird nicht nur ein optimaler Output gewährleistet, sondern auch die Sicherheit der als Prompts verwendeten Informationen sichergestellt.
  • Unternehmen können Pilotprojekte durchführen, bei denen nicht nur die generativen KI-Tools umfassend genutzt werden, sondern auch Dummy-Daten zum Einsatz kommen. Zuvor müssen die Unternehmen jedoch sicherstellen, dass die Mitarbeiter im Prompt Engineering geschult werden. Dazu gehört, dass sie über die Grundlagen des Promptens, die grundlegenden Elemente eines Prompts sowie über Zero-Shot- und Little-Shot-Prompting-Techniken aufgeklärt werden. Die Ergebnisse dieser Initiativen können den Unternehmen den Weg in die Zukunft weisen.

In jedem Fall ist ChatGPT ein großer Schritt in Richtung natürliche Sprachverarbeitung. Wie Michael Jordan, Professor für Informatik an der University of California, Berkeley, sagte:

ChatGPT ist eine bemerkenswerte Errungenschaft auf dem Gebiet der natürlichen Sprachverarbeitung und hat das Potenzial, die Art und Weise, wie wir mit Maschinen kommunizieren, zu verändern.

Die Quintessenz

Es wäre naiv, wenn Unternehmen die Augen vor der generativen KI-Technologie verschließen würden, da sie deren Bedeutung verstehen. Die Sicherheitsrisiken und Verzerrungen, die diese Tools aufweisen, dürfen jedoch nicht übersehen werden.

Für Pionierorganisationen wie OpenAI ist es von entscheidender Bedeutung, diese Bedenken im Kern anzugehen, was eine gemeinschaftliche Anstrengung unter Einbeziehung verschiedener Interessengruppen sein sollte.

Verwandte Begriffe

In Verbindung stehende Artikel

Kaushik Pal
Technischer Redakteur
Kaushik Pal
Technischer Redakteur

Kaushik ist technischer Architekt und Softwareberater und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Softwareanalyse, -entwicklung, -architektur, -design, -prüfung und -schulung. Er interessiert sich für neue Technologien und Innovationsbereiche. Er konzentriert sich auf Webarchitektur, Webtechnologien, Java/J2EE, Open Source, WebRTC, Big Data und semantische Technologien. Kaushik ist auch der Gründer von TechAlpine, einem Technologie-Blog/Beratungsunternehmen mit Sitz in Kolkata. Das Team von TechAlpine arbeitet für verschiedene Kunden in Indien und im Ausland. Das Team verfügt über Fachwissen in den Bereichen Java/J2EE/Open Source/Web/WebRTC/Hadoop/Big Data-Technologien und technisches Schreiben.