Nach der Veröffentlichung eines offenen Briefes von aktuellen und ehemaligen OpenAI-Mitarbeitern und der heftigen Kritik von Ex-Mitarbeitern auf X, hat OpenAI in einem exklusiven Interview mit Techopedia seine Sicherheitsbilanz verteidigt.
Ein Sprecher von OpenAI sagte heute gegenüber Techopedia, dass das Unternehmen stolz auf seine Herangehensweise an die Sicherheit künstlicher Intelligenz sei. “Wir sind stolz darauf, die leistungsfähigsten und sichersten KI-Systeme anzubieten, und wir glauben an unseren wissenschaftlichen Ansatz zum Risikomanagement“, so der Unternehmenssprecher.
“Wir glauben auch, dass angesichts der Bedeutung dieser Technologie eine gründliche Debatte unerlässlich ist, und wir werden uns weiterhin mit Regierungen, der Zivilgesellschaft und anderen Interessengruppen auf der ganzen Welt austauschen.”
In weitreichenden Kommentaren hat sich OpenAI zu Themen geäußert, die in den letzten Monaten die Nachrichten dominiert haben. So haben beispielsweise mehrere Mitglieder des Super-Alignment-Teams von OpenAI das Unternehmen aufgrund von Bedenken bezüglich der Handhabung von Sicherheitsfragen verlassen (Techopedia berichtete).
OpenAI verteidigt offen die Sicherheitsbilanz
Als Reaktion auf die verschiedenen öffentlichen Debatten, die im letzten Jahr über die verantwortungsvolle Entwicklung von KI entstanden sind, hat OpenAI über seinen Umgang mit Sicherheitsfragen gesprochen und betont, dass seine Mitarbeiter das Recht haben, offen Kritik zu äußern.
OpenAI sagte gegenüber Techopedia
“Wir haben eine Erfolgsgeschichte, in der wir die Technologie nicht freigegeben haben, bevor wir die notwendigen Sicherheitsvorkehrungen getroffen haben. Wir haben das Training von GPT-4 im Jahr 2022 abgeschlossen und mehr als 6 Monate damit verbracht, GPT-4 vor der Veröffentlichung im Jahr 2023 zu optimieren.”
Und weiter:
“Wir haben unsere Voice-Engine-Technologie schon 2022 entwickelt und noch nicht auf breiter Basis veröffentlicht, sondern uns dafür entschieden, einen Dialog über den verantwortungsvollen Einsatz dieser Technologie zu führen. Auch unser Tool Sora, mit dem wir Text in Videos umwandeln können, haben wir noch nicht breit veröffentlicht.”
Kontroverse über Unternehmensethik
Diese Kommentare kommen kurz nach einem offenen Brief auf righttowarn.ai, der von sieben ehemaligen und vier aktuellen OpenAI-Mitarbeitern unterzeichnet wurde. Darin werden OpenAI und die gesamte KI-Branche aufgefordert, Maßnahmen zu ergreifen, um die Sicherheit zu gewährleisten, wenn KI immer weiter verbreitet wird – und der Marsch in Richtung künstliche allgemeine Intelligenz weitergeht.
Zu diesen Maßnahmen gehören der Verzicht auf den Abschluss oder die Durchsetzung von Geheimhaltungsvereinbarungen, die Einrichtung eines anonymen Verfahrens für Mitarbeiter/innen, um Bedenken gegenüber dem Management zu äußern, die Förderung einer Kultur der offenen Kritik und die Forderung, dass Mitarbeiter/innen Bedenken öffentlich äußern können, ohne Angst vor Vergeltungsmaßnahmen wie Entlassung oder Strafverfolgung haben zu müssen.
Die meisten der derzeitigen und ehemaligen OpenAI-Mitarbeiter/innen, die den Brief unterzeichnet haben, sind anonym. Zu den namentlich genannten gehören Daniel Kokotajlo, Jacob Hilton, William Saunders, Carol Wainwright und Daniel Ziegler.
1/15: In April, I resigned from OpenAI after losing confidence that the company would behave responsibly in its attempt to build artificial general intelligence — “AI systems that are generally smarter than humans.” https://t.co/yzMKnZwros
— Daniel Kokotajlo (@DKokotajlo67142) June 4, 2024
OpenAI: Wir wollen Regulierung und Kritik
Als direkte Antwort auf den Brief und seine Forderung nach staatlicher Regulierung der KI-Industrie sagte OpenAI:
“Wir teilen diese Meinung und waren unter den ersten in unserer Branche, die eine staatliche Regulierung gefordert haben. Wir tauschen uns regelmäßig mit politischen Entscheidungsträgern auf der ganzen Welt über dieses Thema aus und sind ermutigt durch die Fortschritte, die gemacht werden.”
OpenAI wies darauf hin, dass das Unternehmen mehrere freiwillige Selbstverpflichtungen von Regierungen unterzeichnet hat, darunter die “Frontier AI Safety Commitments” des AI Seoul Summit 2024 und die “Voluntary AI Commitments” des Weißen Hauses.
Bezüglich der Möglichkeit für aktuelle und ehemalige Mitarbeiter/innen, sich öffentlich zu äußern, sagte der Unternehmenssprecher:
“Wir haben alle ehemaligen Mitarbeiter von ihrer Schweigepflicht entbunden. Außerdem haben wir eine Verleumdungsklausel aus unseren Standard-Kündigungsschreiben entfernt.”
“Wir haben Möglichkeiten für die Mitarbeiterinnen und Mitarbeiter geschaffen, ihre Gedanken in den Sprechstunden der Führungskräfte, über eine anonyme Integritäts-Hotline, in Fragestunden mit dem Vorstand und in der laufenden Kommunikation mit ihren Vorgesetzten zu äußern.”
Allerdings mahnt der Sprecher zur Vorsicht bei öffentlichen Äußerungen über die Technologie.
“Wir sind zwar der Meinung, dass es wichtig ist, dass ehemalige Mitarbeiterinnen und Mitarbeiter ihre Meinung über das Unternehmen äußern können, auch wenn sie kritisch ist, aber wir sind der Meinung, dass dieser Dialog auf eine Art und Weise geführt werden muss, die die Sicherheit und Vertraulichkeit der Technologie, die wir entwickeln, nicht gefährdet.”
“Dazu gehört auch, sie vor der Weitergabe an böswillige Akteure zu schützen, die unserem Land, unseren Nutzern und unserem Unternehmen schaden wollen.”
“OpenAI und seine Mitarbeiter/innen sind dafür verantwortlich, die Technologie, die wir entwickeln, zu schützen, auch vor unbefugter Offenlegung, die böswilligen Akteuren Vorteile verschaffen könnte, einschließlich Ländern, die versuchen, den Vorsprung der Vereinigten Staaten in dieser Technologie zu überholen.”
“Unser neu gegründeter Ausschuss für Sicherheit und Gefahrenabwehr, der von Mitgliedern unseres Vorstands geleitet wird, ist sich der spezifischen Bedenken ehemaliger Mitarbeiter bewusst.”
“Der Ausschuss wird die Rückmeldungen während des 90-tägigen Empfehlungsprozesses sorgfältig prüfen und über die angenommenen Empfehlungen in einer Weise öffentlich berichten, die mit der Sicherheit vereinbar ist.”
Der Sprecher fügte hinzu:
“Sichere und zuverlässige Systeme sind entscheidend für unser Geschäftsmodell. Unsere Tools werden von 92 Prozent der Fortune-500-Unternehmen genutzt. Sie würden uns nicht nutzen, wenn unsere Modelle nicht sicher oder nicht leistungsfähig wären.”
“Wir verkaufen keine persönlichen Daten, wir erstellen keine Nutzerprofile und wir verwenden diese Daten nicht, um jemanden anzusprechen oder etwas zu verkaufen”.
Fazit
Es wird oft behauptet, der Aufstieg der KI sei so mächtig und weltverändernd wie die Einführung des Buchdrucks oder die industrielle Revolution.
Diejenigen, die die Macht der KI erlebt haben – sei es durch das Staunen über die Zeitersparnis bei langwierigen Aufgaben oder durch den Intellekt, den sie bei der Entwicklung von Antworten an den Tag zu legen scheint – werden dem zustimmen.
Im Moment ist KI vielleicht “nur” eine Mischung aus generativer KI und großen Sprachmodellen (LLMs) – ein “stochastischer Papagei”. Aber sie dringt in den Mainstream ein, und der Fortschritt, insbesondere in Richtung AGI, wird sich wahrscheinlich beschleunigen.
Es ist entscheidend, wie wir mit dieser außergewöhnlichen Büchse der Pandora umgehen – diese wenigen Jahre werden wahrscheinlich genauso umwälzend sein wie der jahrzehntelange Übergang von der analogen zur digitalen Welt oder der jahrzehntelange Übergang zur Welt des Internets.
OpenAI gibt eine ehrliche Antwort auf die gegen das Unternehmen erhobenen Vorwürfe, aber die Beschwerden der gegenwärtigen und ehemaligen Forschenden sollten im Mittelpunkt dieser Debatte stehen.
Wir öffnen den Deckel der Büchse der Pandora – und wie der Mythos besagt, kann der Mensch sie nicht selbst wieder schließen.
Die Legende besagt auch, dass die Büchse große Schwierigkeiten oder Unglück bringt, aber auch Hoffnung. Letzteres müssen wir bei der Entwicklung von KI und AGI im Auge behalten.
Ob es uns gefällt oder nicht, die KI ist dabei, unsere Welt zu verändern – und wir haben ein Recht darauf, von den Verwaltern dieser Technologie zu erwarten, dass sie mit dieser Macht verantwortungsvoll umgehen.