OpenAI reagiert auf Leaks: Ehemalige Mitarbeiter dürfen das Unternehmen kritisieren

Transparenz
Highlights

  • OpenAI entbindet ehemalige Mitarbeiter von Nichtverleumdungsverträgen.
  • Sie hinderten sie daran, das Unternehmen zu kritisieren, wenn sie ihre Anteile behalten wollten.
  • Sam Altman gab in einem Beitrag auf X zu, dass diese Politik ein Fehler war.

OpenAI korrigiert seine Richtlinien, nachdem ein Dokument durchgesickert ist, aus dem hervorgeht, dass das Unternehmen Mitarbeiter mit Vertraulichkeits- und Nichtverleumdungsverträgen mundtot gemacht hat.

Als Reaktion darauf entbindet OpenAI ehemalige Mitarbeiter von Vertraulichkeitsvereinbarungen, die sie daran hinderten, das Unternehmen nach ihrem Ausscheiden zu kritisieren.

Die Nachricht von der Umkehrung der Politik hat die ehemaligen Mitarbeiter, die zuvor zum Schweigen gebracht wurden, erleichtert.

Laut Bloomberg bestätigte OpenAI in einer Textnachricht an seine Mitarbeiter, dass die während der Betriebszugehörigkeit erworbene Anwartschaft unabhängig von früheren Vereinbarungen sicher bleibt.

Ob es jedoch eine Entschädigung für Mitarbeiter geben wird, die zuvor ihre Anteile verloren haben, weil sie sich der Nachrichtensperre widersetzt haben, ist noch offen.

OpenAIs umstrittene Vereinbarungen

Dies geschieht nach einer Kontroverse über die Politik des Unternehmens, das ausscheidende Mitarbeiter vor die Wahl stellt, ihre verdienten Aktienoptionen zu behalten oder sich zu äußern.

Bisher konnten verärgerte Ex-Mitarbeiter Millionen ihrer Aktien verlieren, wenn sie sich weigerten, die Nichtverleumdungsklausel zu unterzeichnen oder es wagten, das Unternehmen nach der Unterzeichnung zu kritisieren.

Als Reaktion auf die Berichte übernahm der CEO von OpenAI, Sam Altman, die volle Verantwortung und gab in einem Posting auf X zu, dass die Politik ein Fehler war und dass das Unternehmen nie jemandem das Kapital entzogen hat und auch nicht vorhat, dies zu tun, wenn sich jemand weigert, eine Nichtverunglimpfungsklausel zu unterzeichnen.

„Das geht auf meine Kappe und ist eines der wenigen Male, in denen es mir wirklich peinlich ist, OpenAI zu betreiben; ich wusste nicht, dass das passiert, und ich hätte es wissen müssen“, heißt es in einem Teil von Altmans Beitrag.

OpenAIs jüngste Probleme

Diese Änderung der Politik fällt in eine Zeit der Unruhe bei OpenAI, die vor kurzem ihr Team aufgelöst hat, das sich mit dem Schutz der Menschheit vor den potenziellen Gefahren der künstlichen Intelligenz befasst. Dieser Schritt führte zum Weggang eines wichtigen Wissenschaftlers.

Die Auflösung des KI-Sicherheitsteams von OpenAI hat Ängste über die Zukunft der KI-Entwicklung geschürt. Sie passt gut zu Elon Musks Behauptung, OpenAI habe seine KI-Sicherheitsprinzipien zugunsten eines stärker profitorientierten Paradigmas aufgegeben.

Franklin Okeke
Tech Journalist
Franklin Okeke
Tech Journalist

Franklin berichtet seit über 5 Jahren über Technik und Cybersicherheit. Seine Arbeiten sind unter anderem bei TechRepublic, The Register, TechInformed, Computing, ServerWatch und Moonlock erschienen.