KI in der Cloud: Die Nutzerakzeptanz steigt auf über 70 %

Künstliche Intelligenz (KI) erobert die Cloud. Laut einer Studie setzen 70 % der Unternehmen, die die Cloud nutzen, inzwischen in gewissem Umfang verwaltete KI-Dienste ein.

Ein neuer Bericht von Wiz Research hat 150.000 Cloud-Konten analysiert und eine explosionsartige Zunahme der Nutzung von KI in der Cloud festgestellt. So arbeiten 70 % der Organisationen mit verwalteten KI-Diensten.

Damit ist KI fast so beliebt wie die verwalteten Kubernetes-Services, die von 80 % der befragten Betriebe verwendet werden.

Wichtigste Erkenntnisse

  • Über 70 % der Unternehmen, die die Cloud nutzen, haben verwaltete KI-Dienste eingeführt, womit KI fast so beliebt ist wie Kubernetes-Services (80 %).
  • Microsoft, insbesondere Azure AI Services und Azure OpenAI, entwickelt sich zu einem dominierenden Marktteilnehmer, der bei der Implementierung von KI unter den großen Cloud-Service-Anbietern eine führende Rolle übernimmt.
  • Generative KI gewinnt in Cloud-Umgebungen zunehmend an Bedeutung: 53 % der Unternehmen nutzen Technologien von OpenAI.
  • Laut PwC besteht die größte Herausforderung für Führungskräfte darin, einen messbaren Nutzen aus KI zu ziehen.

Microsoft war der unbestrittene Gewinner unter den analysierten Anbietern, wobei Azure AI Services und Azure OpenAI bei der gesamten KI-Bereitstellung unter den bedeutenden Cloud-Service-Anbietern führend waren.

Die Nutzung von Azure OpenAI stieg innerhalb von vier Monaten um 228 %.

Aus den Ergebnissen geht hervor, dass die Einführung von KI in die Gänge kommt und immer mehr Organisationen mit der Integration von KI-Workloads in ihr Cloud-Portfolio experimentieren.

Wie KI das Cloud Computing revolutioniert

Immer mehr Cloud-Anbieter haben generative KI in ihre Produkte integriert, wie z. B. das im November letzten Jahres angekündigte Azure AI Studio von Microsoft oder Google Cloud, das seine Plattform Vertex AI im Juni vergangenen Jahres um die Unterstützung generativer KI erweitert hat.

Angesichts des Hype um die künstliche Intelligenz wird immer deutlicher, dass das Cloud Computing eine Schlüsseltechnologie für die Entwicklung einer effizienten Insight Economy ist.

Auch wenn viele Unternehmen zunehmend in KI investieren, gibt es immer noch einen beträchtlichen Anteil von Firmen, die mit der Technologie erst experimentieren.

So haben beispielsweise 32 % der Betriebe weniger als zehn Instanzen implementiert.

Einer der Gründe für diesen testweisen Ansatz ist, dass das Training und die Feinabstimmung generativer KI-Modelle extrem kostspielig sein kann.

Die Dienste selbst sind nicht billig in ihrer Ausführung. Nach Schätzungen einiger Experten kostet der Betrieb von ChatGPT bis zu 700.000 $ pro Tag.

Deshalb begrenzen viele Unternehmen die Anzahl der Instanzen, die in Cloud-Umgebungen eingesetzt werden, um herauszufinden, welchen Wert KI bietet und ob sie weitere Investitionen rechtfertigt.

Zum gegenwärtigen Zeitpunkt konzentriert sich das Interesse auf OpenAI. 53 % der Cloud-Umgebungen nutzen OpenAI oder SDKs für Azure OpenAI, die sich in Services wie GPT, DALL-E und Whisper integrieren lassen.

In ihren Ergebnissen sagte Wiz: Generative KI ist eine wirklich Cloud-native Technologie, wobei Training und Inferenz für die meisten Anwendungsfälle sehr rechenintensiv bleiben und Unternehmen daher ermutigen, die Vorteile der Rechen- und Speicherskalierung, die die Cloud ermöglicht, voll auszuschöpfen.

Cloud-Service-Provider haben sich auf die Kundennachfrage eingestellt und bieten sowohl überarbeitete Versionen ihrer vorhandenen KI- und ML-Services als auch völlig neue Lösungen für den Aufbau mit generativer KI in der Cloud an.

Der Wert von LLMs

In ihrer bisherigen Entwicklung hat generative KI aufgrund ihrer Fähigkeit zur Produktivitätssteigerung an Zugkraft und Interesse gewonnen.

Untersuchungen des MIT haben gezeigt, dass künstliche Intelligenz die Leistung von Arbeitnehmern um bis zu 40 % gegenüber Beschäftigten, die sie nicht nutzen, verbessern kann.

Gleichzeitig eröffnet die Vielseitigkeit von Sprachmodellen wie GPT-4 und Claude 2 eine Vielzahl von Anwendungsfällen, von denen die Mitarbeiter profitieren können.

Sie reichen von der Generierung von Text und Code bis hin zur Bereitstellung von natürlichsprachlichen Zusammenfassungen isolierter Datensignale, um den menschlichen Nutzern einen größeren Kontext zu bieten.

Angesichts der Tatsache, dass 60 % der Unternehmensdaten ab 2022 in der Cloud gespeichert werden, ermöglicht der Übergang zur KI-Cloud den Anwendern die Gewinnung von Erkenntnissen aus einer größeren Bandbreite von Datensignalen als je zuvor.

Trotz dieser Möglichkeiten sind viele Führungskräfte noch unsicher, was den Wert dieser Technologie angeht.

Wie PWC berichtet, haben 88 % der Unternehmensleiter das Erzielen eines messbaren Werts durch KI als eine ihrer größten Herausforderungen bezeichnet.

85 % gaben zudem die Kosten für die Einführung als Herausforderung an.

Auf absehbare Zeit müssen sich also sowohl die Endnutzerunternehmen als auch die Anbieter von Cloud-Diensten auf die Verbesserung der Effizienz beim Training von Modellen für KI und maschinelles Lernen konzentrieren, soll die Übernahme der Technologie das volle Potenzial erreichen.

Dies könnte der Grund dafür sein, warum so viele Organisationen auf verwaltete Dienste setzen – zur Begrenzung der Gesamtkosten.

Fazit

KI ist auf dem Vormarsch. Auch wenn generative KI-Lösungen wie GPT-4 nicht perfekt sind, haben sie doch genug geleistet, um die Aufmerksamkeit des Enterprise-Marktes zu wecken.

Ob es für das durchschnittliche Unternehmen wirtschaftlich machbar ist, KI-Workloads in der Cloud auszuführen, bleibt abzuwarten. Die ersten Anzeichen sehen jedoch vielversprechend aus.

Es gibt eindeutig ein reges Interesse daran, die Produktivitätsvorteile der KI zu nutzen, auch wenn es noch keine Klarheit über die wirtschaftlichen Aspekte der Umsetzung gibt.

Verwandte Begriffe

Tim Keary

Seit Januar 2017 arbeitet Tim Keary als freiberuflicher Technologie-Autor und Reporter für Unternehmenstechnologie und Cybersicherheit.