Wer hat nicht schon einmal davon geträumt, eine Superintelligenz zu entwickeln, die uns von allen irdischen Problemen befreit? Gut, vielleicht nicht jeder von uns, aber einer der Mitgründer von OpenAI, Ilya Sutskever, scheint genau das im Sinn zu haben.
Mit seinem neuen Start-up „Safe Superintelligence“ will er eine ungefährliche, hoch entwickelte künstliche Intelligenz (KI) erschaffen. Aber was bedeutet das wirklich? Und warum sollten wir uns dafür interessieren?
Das Wichtigste in Kürze
- Ilya Sutskever gründet Safe Superintelligence, um eine sichere, hochentwickelte KI zu entwickeln, die Sicherheitsrisiken minimiert.
- KI-Modelle wie ChatGPT können falsche Informationen produzieren, die gravierende Folgen haben, wie der Fall eines fälschlich beschuldigten Juraprofessors zeigt.
- Bei Fehlinformationen durch KI fehlt oft eine klare Verantwortlichkeit, was zu erheblichen Schäden für Einzelpersonen führen kann.
- Safe Superintelligence konzentriert sich auf sichere KI ohne kommerziellen Druck. Die genaue Umsetzung bleibt jedoch unklar.
Wer ist dieser Sutskever überhaupt?
Falls der Name Ilya Sutskever bei Ihnen keine Glocken läuten lässt: Dieser Mann war der Forschungschef bei OpenAI, dem Unternehmen hinter ChatGPT. Er war eine Schlüsselfigur in der Entwicklung vieler KI-Modelle, die wir heute nutzen. Doch jetzt hat er beschlossen, ein neues Abenteuer zu beginnen und sich von OpenAI zu trennen. Und was für ein Abenteuer das ist!
Sicher oder nicht sicher? Das ist hier die Frage
Das Ziel von Safe Superintelligence ist, wie der Name schon sagt, eine „sichere“ Superintelligenz zu schaffen.
Sutskever betont, dass das Unternehmen vorerst keine anderen Produkte herausbringen wird, um sich voll und ganz auf dieses Ziel zu konzentrieren. Klingt ambitioniert, oder? Aber warum diese Fixierung auf Sicherheit?
Nun, die Risiken von KI sind keine Science-Fiction mehr. Experten warnen schon lange vor den Gefahren, die von leistungsstarken, eigenständigen KI-Systemen ausgehen könnten.
KI-Modelle „halluzinieren“
Schon heute erleben wir, wie KI-Modelle „halluzinieren“ – also falsche Informationen produzieren und diese selbstbewusst präsentieren. ChatGPT und ähnliche Systeme neigen dazu, Antworten zu geben, die auf den ersten Blick überzeugend wirken, aber oft schlichtweg falsch sind.
Stellen Sie sich vor, Sie fragen eine KI nach medizinischem Rat und erhalten eine detaillierte, aber komplett erfundene Diagnose. Oder ein autonomes Fahrzeug trifft eine Entscheidung basierend auf fehlerhaften Daten und verursacht einen Unfall.
Was passiert, wenn eine hochentwickelte KI solche „Halluzinationen“ hat und diese für bahnbrechende Entscheidungen nutzt? Gänsehaut-Material, nicht wahr? Genau hier setzt Safe Superintelligence an: Es soll verhindert werden, dass solche gefährlichen KI-Fehler überhaupt erst entstehen.
Die Gefahren von künstlicher Intelligenz: Warum Sicherheit unerlässlich ist
Die Gefahren von KI sind real und oft erschreckend konkret. Ein Paradebeispiel für die Risiken der KI ist der Umgang mit den Falschinformationen, die OpenAI ganz offen zugibt, dass ChatGPT produziert. Diese Fehlinformationen sind alles andere als harmlos und können bedeutende Konsequenzen haben, wie ein Juraprofessor in den USA schmerzlich erfahren musste.
ChatGPT nannte den Juraprofessar in einer Liste von mehreren Professoren, die angeblich sexuelle Übergriffe auf Studierende begangen haben sollen. Das wirklich Erschreckende? Die KI bezog sich auf einen Zeitungsartikel, der nie existiert hat.
Verheerende Halluzinationen: Wenn KI den Ruf zerstört
Solche Vorfälle zeigen, wie verheerend die Auswirkungen von „halluzinierenden“ KI-Systemen sein können. Falsche Anschuldigungen können nicht nur den Ruf einer Person ruinieren, sondern auch ihre Karriere zerstören und das Privatleben stark beeinträchtigen.
In unserer digitalen Welt verbreiten sich solche Fehlinformationen wie ein Lauffeuer, und einmal in die Welt gesetzt, lassen sie sich kaum wieder einfangen. Unwahrheiten über Menschen können zu unberechtigten Entlassungen, sozialer Isolation und erheblichen emotionalen Schäden führen.
Das Problem ist, dass es oft keine klaren Verantwortlichkeiten gibt. Wenn eine Zeitung eine Person diffamiert, kann man den verantwortlichen Journalisten oder die Redaktion kontaktieren. Bei KI-Systemen wie ChatGPT fehlt jedoch häufig eine solche Ansprechstelle.
Wer ist zuständig für KI-Fehler?
Der betroffene Juraprofessor fordert daher dringend gesetzgeberische Maßnahmen, um solche Vorfälle zu verhindern. Selbst als Microsofts KI-System dieselbe falsche Geschichte wiederholte, gab es keine Reaktion des Unternehmens außer dem Hinweis, dass man lediglich versucht, genaue Informationen zu liefern.
Der Bedarf an sicheren KI-Systemen, die solche gravierenden Fehler vermeiden können, ist daher größer denn je. Safe Superintelligence hat sich genau dieser Herausforderung verschrieben und arbeitet daran, solche gefährlichen Fehlfunktionen von vornherein auszuschließen, um die Integrität und das Wohl der betroffenen Personen zu wahren.
AGI – Die wahre Supermacht?
Wenn wir über Superintelligenz sprechen, reden wir oft auch über Artificial General Intelligence (AGI), also eine KI, die menschliche Intelligenz in allen Bereichen übertrifft. Das klingt wie aus einem Science-Fiction-Roman, aber genau das ist das Endziel vieler KI-Entwickler.
Sam Altman von OpenAI hat bereits erklärt, dass AGI unglaubliche Fähigkeiten für die Gesellschaft freisetzen könnte, aber auch große Risiken birgt. Missbrauch, Unfälle, gesellschaftliche Umwälzungen – das volle Programm.
Ein Trio der Superhirne
Neben Sutskever gehören Daniel Gross, ehemals bei Apple, und Daniel Levy, ein weiterer ehemaliger OpenAI-Mitarbeiter, zum Gründungsteam. Zusammen wollen sie „revolutionäre Durchbrüche“ erzielen. Doch wie genau das aussehen soll, bleibt nebulös. Was sie aber klar betonen, ist die Unabhängigkeit vom kommerziellen Druck. Ein kluger Schachzug oder eine riskante Wette?
Der große Unbekannte: Finanzierung
Eines der größten Rätsel bleibt die Finanzierung des Projekts. Ohne ein sofort profitables Produkt, wie wird Safe Superintelligence sich über Wasser halten? Investoren werden sicherlich neugierig sein, wie sie von dieser ambitionierten Vision profitieren können. Und wir alle wissen, dass Geld die Welt regiert – besonders in der Tech-Branche.
OpenAI: Eine offene Tür für alle?
Ein weiterer interessanter Aspekt ist die Frage, ob das „Open“ in OpenAI tatsächlich für offene Türen steht – nicht nur in Bezug auf Transparenz, sondern auch auf den ständigen Personalwechsel.
Die Geschichte von OpenAI ist geprägt von einem ständigen Kommen und Gehen: Von der überraschenden Entlassung von Sam Altman bis hin zu den Abgängen anderer prominenter Mitarbeiter.
So könnte man sich fragen, ob das „Open“ in OpenAI eher für eine flexible, fast unbeständige Arbeitsumgebung steht. Diese Fluktuation wirft die Frage auf, ob ein solcher ständig wechselnder Mitarbeiterstamm langfristige Stabilität und kontinuierliche Vision gewährleisten kann.
Also, was nun?
Es bleibt spannend, wie Sutskevers neue Unternehmung die KI-Welt verändern wird. Können sie wirklich eine sichere Superintelligenz entwickeln, oder laufen sie Gefahr, dieselben Fehler zu machen wie ihre Vorgänger?
Und wie werden wir, die Gesellschaft, auf diese Entwicklungen reagieren? Werden wir die Chancen nutzen oder die Risiken fürchten? Sind wir bereit für eine Superintelligenz? Oder sollten wir uns lieber zurücklehnen und zusehen, wie sich diese High-Tech-Saga entfaltet? Nur die Zeit wird es zeigen. Aber eines ist sicher: Langweilig wird es nicht!
Referenzen
- OpenAI-Mitgründer will “Superintelligenz” entwickeln (Tagesschau)
- ChatGPT smeared me with false sexual harassment charges: law professor (New York Post)
- ChatGPT gegen Professor X (LTO)
- Superintelligenz (Wikipedia)