Tech-CEOs nennen die Top 8 KI-Trends 2024

DAS WICHTIGSTE IM ÜBERBLICK

Techopedia hat sich bei einigen führenden CEOs im Bereich der Unternehmenstechnologie erkundigt, wie sich ihrer Meinung nach KI im Jahr 2024 auf Organisationen auswirken wird. Von der verstärkten Videoerstellung über die Cloud-Sicherheit bis hin zum Aufkommen von KI-generierter Malware – die nächsten 12 Monate werden sehr spannend werden.

Allein 2023 war ein herausragendes Jahr für generative KI: GPT-4, GPT-4V, Google Bard, PaLM 2 und Google Gemini wurden alle in diesem Jahr als Teil eines sich schnell entwickelnden Wettrüstens zur Automatisierung alltäglicher Arbeitsabläufe eingeführt.

Für weitere Einblicke in die Zukunft hat Techopedia führende CEOs aus dem Bereich der Unternehmenstechnologie befragt, welche Auswirkungen KI ihrer Ansicht nach 2024 auf Betriebe haben wird und welche KI-Trends sich bereits abzeichnen.

Die folgenden Kommentare wurden zwecks Knappheit und Klarheit überarbeitet.

Der Aufstieg von KI-gestützter Malware

Schon bald werden wir das Aufkommen von generativer, KI-gestützter Malware erleben, die im Wesentlichen selbstständig denken und handeln kann.

Eine solche Bedrohung, die die USA mit besonderer Sorge betrachten sollten, geht von nationalstaatlichen Gegnern aus.

Wir werden sehen, dass Angriffsmuster immer polymorpher werden, d. h. die künstliche Intelligenz (KI) wertet die Zielumgebung sorgfältig aus und denkt dann selbstständig nach, um die ultimative Lücke im Netzwerk oder den besten Bereich zum Ausnutzen zu finden und entsprechend zu verändern.

Statt dass ein Mensch den Code knackt, wird es selbstlernende Systeme geben, die auf der Grundlage von Veränderungen in ihrer Umgebung erkennen, wie sie Schwachstellen ausnutzen können.

Patrick Harr, CEO von SlashNext 

Passkey-Annahme wird stärker

Der KI-Boom hat eine Schattenseite, die nur wenigen Verbrauchern oder Unternehmen bewusst ist: Cyberkriminelle können nun ihre Phishing-Angriffe glaubwürdiger, häufiger und raffinierter gestalten, indem sie die Leistung generativer KI wie WormGPT nutzen.

Mit Blick auf das Jahr 2024 wird diese Bedrohung an Umfang und Ausmaß zunehmen. 

Vor diesem Hintergrund wird der Wendepunkt für die massenhafte Einführung von Passkeys erreicht sein (auch wenn es noch eine beträchtliche Übergangszeit bis zu einer wirklich passwortlosen Zukunft geben wird).

Im vergangenen Jahr wurden Passkeys plattformübergreifend immer häufiger eingesetzt, und Big Tech von Google bis Amazon hat verschiedene Stufen der Passkey-Unterstützung eingeführt.

Passkeys werden jedoch letztendlich die Passwörter als Status quo-Technologie ablösen, sobald die Konsequenzen der Nichtverwendung einer sichereren, Phishing-resistenten Form der Authentifizierung im Zuge der zunehmend schädlichen und kostspieligen Cyberangriffe deutlich werden.

John Bennett, CEO von Dashlane 

Zusätzliche Schutzmaßnahmen für KI-Modelle

Sicherheit und Datenschutz müssen für jedes Technologieunternehmen ein Hauptanliegen bleiben, unabhängig davon, ob es sich auf KI konzentriert oder nicht.

Wenn es um KI geht, ist es von entscheidender Bedeutung, dass das Modell über die notwendigen Sicherheitsvorkehrungen, eine Feedbackschleife und vor allem einen Mechanismus zum Aufzeigen von Sicherheitsbedenken verfügt.

Da Unternehmen im Jahr 2024 die Vorteile von KI in Bezug auf Effizienz, Produktivität und Demokratisierung von Daten immer schneller nutzen werden, muss sichergestellt werden, dass bei der Identifizierung von Problemen ein Meldemechanismus vorhanden ist, der diese aufdeckt, so wie eine Sicherheitslücke erkannt und angezeigt wird.

David Gerry, CEO von Bugcrowd 

LLMs werden die Cloud-Sicherheit umgestalten

2024 wird die Entwicklung der generativen KI (GenAI) und der großen Sprachmodelle (Large Language Models, LLM), die 2023 eingeleitet wurde, die Cybersicherheitskette neu definieren, die Effizienz steigern und die Abhängigkeit von Arbeitskräften in der Cloud-Security minimieren.

Ein Beispiel sind durch LLMs verstärkte Erkennungstools. LLMs werden die Protokollanalyse erweitern und eine frühzeitige, genaue und umfassende Erkennung von bekannten und schwer fassbaren Zero-Day-Angriffen ermöglichen.

Die analytischen Fähigkeiten von LLMs werden subtile, komplizierte Muster und Anomalien aufdecken, was die Identifizierung und Abschwächung komplexer Bedrohungen sowie die Verbesserung der allgemeinen Sicherheitslage gewährleistet.

GenAI wird die Raffinesse sowohl von Cyberangriffen als auch von Verteidigungsmechanismen erhöhen, was innovative Strategien voraussetzt und die Schaffung flexibler, reaktionsfähiger Sicherheitsrahmen fördert.

Die Verschmelzung von KI und LLM wird die Sicherheitsabläufe und -protokolle rationalisieren.

Dadurch können sich die Fachleute auf strategische Analysen und Innovationen konzentrieren und eine robuste Erkennung und Bekämpfung von Bedrohungen gewährleisten, was die Integrität, Vertraulichkeit und Verfügbarkeit von Informationen in der Cloud stärken wird.

Chen Burshan, CEO von Skyhawk Security 

„Risikoreduzierung“ bei der Datensicherheit wird immer besser

Das Konzept der Risikominderung im Bereich der Datensicherheit wird sich in den nächsten Jahren im Einklang mit dem zunehmenden Einsatz von Technologien der generativen KI weiterentwickeln.

Bis vor kurzem haben Unternehmen Richtlinien zur Datenaufbewahrung und -löschung zur Gewährleistung eines minimalen Risikos für ihre Assets eingeführt.

In dem Maße, in dem die Möglichkeiten der GenAI für Unternehmen an Bedeutung gewinnen, wird die Motivation steigen, Daten so lange wie möglich zu speichern, um sie für das Training und Testen dieser neuen Fähigkeiten zu nutzen.

Daher wird es für Datensicherheitsteams nicht mehr möglich sein, Risiken durch das Löschen unnötiger Daten zu bekämpfen, da der neue Geschäftsansatz darin besteht, dass alle Daten irgendwann einmal benötigt werden können.

Liat Hayun, CEO und Mitbegründerin von Eureka Security

Erosion des Vertrauens in KI-Entscheidungsprozesse

In einer sich schnell entwickelnden Technologielandschaft sind die Parallelen zwischen der Einführung von Cloud-Diensten und dem aktuellen Anstieg der Implementierung von künstlicher Intelligenz sowohl auffällig als auch warnend.

So wie Unternehmen Cloud-Lösungen wegen ihres Innovationspotenzials eifrig angenommen haben, hat die Eile der Integration die Entwicklung robuster Sicherheitskontrollen und Compliance-Tools überholt.

Infolgedessen entstanden Schwachstellen, die von böswilligen Akteuren schnell ausgenutzt werden konnten, wodurch Unternehmen mit unvorhergesehenen Herausforderungen konfrontiert wurden.

Da wir eine ähnliche Entwicklung bei der Einführung von KI-Technologien beobachten, ist es zwingend erforderlich, Lehren aus der Vergangenheit zu ziehen und sich proaktiv mit den drohenden Problemen zu befassen.

Die rasche Integration von KI in verschiedene Bereiche des Geschäftsbetriebs ist unbestreitbar transformativ. Doch der Mangel an umfassender Transparenz und Unternehmenskontrolle gibt Anlass zu Bedenken.

Ähnlich wie in den Anfängen der Cloud-Einführung betreten Unternehmen mit KI Neuland, oft ohne die notwendigen Sicherheitsvorkehrungen zu treffen.

Die Folgen unzureichender Maßnahmen sind zweierlei: erstens ein erhöhtes Risiko von Sicherheitsverletzungen und zweitens ein potenzieller Vertrauensverlust, da Stakeholder die ethischen Implikationen und die Transparenz von KI-Entscheidungen in Frage stellen.

Varun Badhwar, CEO und Mitbegründer von Endor Labs

Entwickler werden effizienter sein

Dies ist ein zweigleisiges Thema, über das die Führungskräfte im Jahr 2024 wirklich nachdenken müssen. Einerseits müssen CISOS- und IT-Verantwortliche sich Gedanken darüber machen, wie wir den Quellcode sicher in unsere eigenen Königreiche innerhalb des Tuner-Rise einspeisen können.

Mit Tools wie Copilot und ChatGPT werden Entwickler und Unternehmen viel effizienter arbeiten können. Dies birgt jedoch auch mehr Risiken in Bezug auf potenzielle Schwachstellen, die uns Sorgen bereiten sollten.

Auf der anderen Seite müssen wir darüber nachdenken, wie Anbieter von Anwendungssicherheitslösungen es CISOS und IT-Führungskräften ermöglichen, generative KI in ihren Tools für eine effizientere Ausführung ihrer Programme zu nutzen und die Produktivität in Bezug auf den Einsatz von KI zur Beschleunigung von Sicherheitsergebnissen zu steigern.

Dazu gehören z. B. die Erstellung von Sicherheitsrichtlinien, die Identifizierung von Mustern und Anomalien, das schnellere Auffinden und die Priorisierung von Schwachstellen sowie die Unterstützung bei der Reaktion auf Vorfälle.

Lior Levy, CEO und Mitbegründer von Cycode 

Videogenerierung wird zum Mainstream

Im vergangenen Jahr wurden Videogenerierungsmodelle (Text-zu-Video, Bild-zu-Video, Video-zu-Video) zum ersten Mal öffentlich zugänglich.

2024 werden sich Qualität, Allgemeinheit und Kontrollierbarkeit dieser Modelle weiter rapide verbessern. Zum Jahresende wird ein beträchtlicher Prozentsatz der Videoinhalte im Internet in irgendeiner Form auf sie zurückgreifen.

Da große Modelle immer schneller umgebaut werden können und man strukturiertere Möglichkeiten zu ihrer Steuerung entwickelt, werden auch immer mehr neuartige Schnittstellen und Produkte entstehen, die über die Standard-Prompt-to-X- oder Chat-Assistenten-Paradigmen hinausgehen.

Im vergangenen Jahr lag der Schwerpunkt der Diskussionen auf den Fähigkeiten einzelner Netzwerke, die durchgängig trainiert werden.

In der Praxis werden KI-Systeme jedoch in der Regel von einer Pipeline von Modellen angetrieben, die in realen Umgebungen eingesetzt werden. Und es werden mehr Frameworks für den Aufbau modularer KI-Systeme erscheinen.

Außerdem wird KI die Forschung vorantreiben während LLM-Code-Assistenten wie Copilot viel Zuspruch erhalten haben, gab es bisher nicht viele Tools, die speziell auf die Beschleunigung von KI-Forschungsabläufen abzielen, z. B. bei der Automatisierung eines Großteils der sich wiederholenden Aufgaben, die mit der Entwicklung/Debugging von Modellcode, dem Training und der Auswertung von Modellen usw. verbunden sind.

Im kommenden Jahr werden wahrscheinlich mehr solcher Tools auf den Markt kommen.

Anastasis Germanidis, CTO und Mitbegründer von Runway

Fazit

Wenn sich auch nur einige der Top-KI-Trends dieses Gremiums bewahrheiten, stehen uns in den nächsten 12 Monaten interessante Zeiten und eine transformative Phase für Unternehmen und Einzelpersonen bevor.

Während sich Organisationen noch mit den Sicherheitsbedenken von KI-generierter Malware und Phishing-Versuchen auseinandersetzen müssen, gibt es für Mitarbeiter und Stakeholder viele Möglichkeiten, Arbeitsabläufe zu automatisieren und im Jahr 2024 einen Mehrwert zu schaffen.

Verwandte Begriffe

Tim Keary

Seit Januar 2017 arbeitet Tim Keary als freiberuflicher Technologie-Autor und Reporter für Unternehmenstechnologie und Cybersicherheit.