Was ist Grok?
Grok ist ein KI-basierter Chatbot und Recherche-Assistent. Er wurde von xAI, einem Unternehmen von Elon Musk, entwickelt und soll mit Humor und Sarkasmus auf Texteingaben von Nutzern reagieren.
Der Chatbot wurde von der Science-Fiction-Komödie Per Anhalter durch die Galaxis inspiriert und wird von Grok-1, dem großen Sprachmodell (LLM) von xAI, angetrieben. Das Programm hat Zugang zu Echtzeitdaten aus Beiträgen auf X (früher bekannt als Twitter).
Wie xAI im Blogpost zur Ankündigung schreibt, soll Grok „fast alles beantworten“ und ist „darauf ausgelegt, Fragen mit ein wenig Spaß zu beantworten“.
In dem Beitrag heißt es zudem, dass die Lösung den Nutzern helfen soll, auf Informationen zuzugreifen, Daten zu verarbeiten und neue Ideen zu entdecken.
The @xAI Grok AI assistant will be provided as part of 𝕏 Premium+, so I recommend signing up for that.
Just $16/month via web. https://t.co/wEEIZNjEkp
— Elon Musk (@elonmusk) November 4, 2023
Darüber hinaus bestätigte das Unternehmen, dass Grok zunächst einer begrenzten Gruppe von Usern in den USA zur Verfügung stehen soll, bevor eine allgemeine Freigabe erfolgt.
Am 22. November 2023 postete Musk auf X, dass Grok in der darauffolgenden Woche für alle Premium+-Abonnenten zugänglich sein wird.
Yeah.
Grok should be available to all X Premium+ subscribers next week.
— Elon Musk (@elonmusk) November 22, 2023
Grok AI vs. ChatGPT, andere KI-Assistenten
Zum jetzigen Zeitpunkt der Entwicklung besteht das Schlüsselmerkmal, das Grok von anderen KI-Assistenten wie ChatGPT und Claude 2 abhebt, in seiner Verknüpfung mit Echtzeitdaten aus der Social-Media-Plattform X.
Obwohl die Art dieser Trainingsdaten nicht öffentlich bekannt gegeben wurde, könnte der Zugriff auf die große Menge an Gesprächsinhalten auf X und möglicherweise auf einige der proprietären Daten des Anbieters hinter den Kulissen den Chatbot zu einem bedeutenden Akteur auf dem Markt machen.
Darüber hinaus ist Groks Fokus auf Humor und Witz auch ein wesentlicher Unterschied zu Konkurrenten wie GPT-4 und Claude 2, die sich auf die Interaktion mit Nutzern in einer unterhaltsamen, aber zurückhaltenden Art und Weise konzentrieren und schädliche Ausgaben minimieren.
Wie Musk in einem Beitrag auf X erklärte, basiert Grok „auf Sarkasmus und liebt ihn“.
Grok has real-time access to info via the 𝕏 platform, which is a massive advantage over other models.
It’s also based & loves sarcasm. I have no idea who could have guided it this way 🤷♂️ 🤣 pic.twitter.com/e5OwuGvZ3Z
— Elon Musk (@elonmusk) November 4, 2023
Der spielerische Ansatz von Grok hat daher das Potenzial, die Nutzer mit witzigen Antworten zu unterhalten, und zwar in einer Form, die die Unbeschwertheit der alltäglichen menschlichen Interaktion nachahmt.
Wie schneidet Grok im Vergleich zu anderen LLMs ab?
Nach nur zwei Monaten Training berichtete xAI, dass das LLM Grok-1 bei wichtigen KI-Benchmarks wie Human Eval und MMLU mit 63,2 % bzw. 73 % eine gute Leistung erzielt hatte.
Diese Ergebnisse übertrafen sowohl GPT-3.5 von OpenAI als auch Llama 2 70B von Meta bei beiden Benchmarks.
Zum Vergleich: GPT-3.5 erreichte 48,1 % bei Human Eval und 70 % bei MMLU, während die Werte von Llama 2 70B bei 29,9 % und 68,9 % lagen.
Laut xAI hat Grok auch bei einer anderen Leistungsaufgabe gut abgeschnitten. Dabei wurde die Performance von Grok, Claude 2 und GPT-4 bei der nationalen ungarischen Mathematikprüfung für Gymnasien im Mai 2023 getestet.
Bei dieser Prüfung erzielte Grok-1 eine C-Note mit 59 %, Claude 2 eine C-Note mit 55 % und GPT-4 eine B-Note mit 68 %.
Auch wenn Grok nicht an die Leistung von GPT-4 heranreicht, ist es beeindruckend, dass es bei bestimmten Aufgaben mit LLMs wie GPT-3.5, Claude 2 und Llama 2 70B trotz seiner erst viermonatigen Entwicklungszeit mithalten konnte.
Außerdem benötigt es nur einen Bruchteil der Trainingsdaten und Rechenressourcen von LLMs wie GPT-4 und Llama 2 70B.
Es ist zwar unklar, wie viele Parameter Grok-1 hat, aber Grok-0 hatte Berichten zufolge 33 Milliarden Parameter.
Zum Vergleich: Bei LLama 2 sind es 70 Milliarden.
Das Forschungsteam hinter Grok
xAI wurde im März 2023 gegründet. Das Team besteht aus erfahrenen KI-Forschern, die zuvor bei Organisationen und Institutionen wie OpenAI, DeepMind, Google Research und der Universität Toronto gearbeitet haben.
Dazu gehören Ibor Babuschkin, Manual Kroiss, Yuhuai Wu, Christian Szegedy, Jimmy Ba, Toby Pohlen, Ross Nordeen, Kyle Kosic, Greg Yang, Guodong Zhang, Zihang Dai, Xiao Sun, Fabio Aguilera-Convers, Ting Chen und Szymon Tworkowski.
Die Wissenschaftler des Projekts haben zu einer Vielzahl von Innovationen in diesem Bereich beigetragen, darunter GPT-4, GPT-3.5, AlphaStar, AlphaCode, Inception, Minerva, der Adam-Optimierer, Batch-Normalisierung, Layer-Normalisierung, Transformer-XL, Autoformalisierung und Batch-Größen-Skalierung.
Insgesamt deutet das sehr erfahrene Forscherteam hinter Grok darauf hin, dass xAI das Potenzial hat, in Zukunft ein wichtiger Anbieter auf dem Markt für generative KI zu werden.
Das Risiko schädlicher Ausgaben
Als LLM-gesteuerter Chatbot ist Grok mit den gleichen Herausforderungen konfrontiert wie alle anderen Sprachmodelle, da er dazu aufgefordert oder manipuliert werden kann, schädliche, diskriminierende oder illegale Inhalte zu produzieren.
Es ist unklar, ob Groks Schwerpunkt auf der Bereitstellung humorvoller und geistreicher Antworten auf User-Prompts das Risiko der Generierung von Inhalten, die einige als beleidigend empfinden könnten, erhöht.
Wie xAI erwähnt, hat Grok eine „rebellische Ader“ und wird Fragen beantworten, die von anderen KI-Systemen abgelehnt werden. Das bedeutet, dass es potenziell mehr Möglichkeiten gibt, anstößige Inhalte zu erstellen.
Weitere Herausforderungen: Verzerrungen durch X
Ein weiterer potenzieller Risikofaktor ist die Verwendung von Echtzeitdaten von X.
In der Vergangenheit wurde X, als es noch unter dem Namen Twitter bekannt war, häufig wegen der Verbreitung von unangemessenen Inhalten und Fehlinformationen auf der Plattform kritisiert.
So fand Pew Research heraus, dass 17 % der X-Nutzer belästigendes oder beleidigendes Verhalten beobachtet haben. 33 % haben viele ungenaue oder irreführende Informationen gesehen.
Es besteht also das Risiko, dass ein Teil der schädlichen Inhalte und Falschmeldungen auf der Plattform in die Trainingsdaten von Grok einfließen und zu gefährlichen Vorurteilen und Reaktionen führen könnte.
Daher müssen die Inhalte in erheblichem Umfang moderiert werden, um das Eindringen dieser Daten in die Ergebnisse zu verhindern.
Bislang scheint xAI bemüht zu sein, das Risiko derartiger Ausgaben zu minimieren.
Das Unternehmen betonte in seinem Blogbeitrag, dass das Team „daran interessiert ist, die Robustheit von LLMs zu verbessern“ und „unser Möglichstes zu tun, um sicherzustellen, dass KI eine Kraft für das Gute bleibt“.
Dazu wird es aktiv von Dan Hendrycks, dem Direktor des Center for AI Safety, beraten.