Das Aufkommen datenintensiver Technologien, wie virtuelle und erweiterte Realität, autonome Fahrzeuge und generative KI, hat viele Innovationen und Möglichkeiten geschaffen. Allerdings hat dies auch zu einer erhöhten Belastung der bestehenden Rechenzentrumskapazität geführt.
Infolgedessen hat sich die IT-Infrastruktur auf ein hybrides Modell verlagert, das eine anspruchsvolle Verwaltung erfordert.
Mit dem Aufstieg der künstlichen Intelligenz im Bereich des Edge Computing ist die Datenverarbeitung jedoch nicht mehr auf Kerndatenzentren und zentralisierte Clouds beschränkt, sagt Pierluca Chiodelli, Vizepräsident der technischen Abteilung für Edge Computing, Strategie und Implementierung bei Dell Technologies.
Stattdessen erfolgt sie näher an der Datenquelle, am Rande des Netzwerks, was eine Entscheidungsfindung in Echtzeit ermöglicht und die Notwendigkeit verringert, große Datenmengen an zentrale Stellen zu übertragen.
„Infolgedessen müssen Unternehmen einen hochentwickelten und fortschrittlichen Ansatz zur effizienten, sicheren und intelligenten Verwaltung von Workloads und Daten in ihrer gesamten IT-Landschaft verfolgen“, erklärt Chiodelli.
„Nur so können sie das volle Potenzial datenintensiver Technologien ausschöpfen und gleichzeitig die einzigartigen Herausforderungen bewältigen, die sich aus der Integration von KI am Netzwerkrand ergeben.“
In der neuen Studie How Edge Computing Is Enabling the Future befragte Schneider Electric mehr als 1.000 IT-Verantwortliche und stellte fest, dass 49 % der Teilnehmer die Verwaltung hybrider IT-Infrastrukturen als ihre größte IT-Herausforderung bezeichnen. Dabei erwarten sie, dass Edge Computing mehrere Schlüsselfaktoren wie Geschwindigkeit, Datensicherheit und Ausfallsicherheit verbessern wird.
„Das wachsende Datenvolumen hat auch zu einer verstärkten Datenverarbeitung geführt, was die Kohlenstoffemissionen und die betriebliche Nachhaltigkeit stärker belastet“, heißt es in der Erhebung.
Die Entscheidungsträger glauben, dass Edge Computing zur Nachhaltigkeitsförderung und Erreichung der ESG-Ziele (engl. environmental, social, corporate governance) ihrer Unternehmen beitragen kann.
Da die Datenmenge in Unternehmen stetig zunimmt und die IT-Infrastruktur immer komplexer wird, ist es für Organisationen von entscheidender Bedeutung, herauszufinden, wie sie Energie an den Schnittstellen verfolgen und messen können, sagt Carsten Baumann, Leiter der strategischen Initiativen und Lösungsarchitekt bei Schneider Electric.
Geringe Latenzzeit + höhere Zuverlässigkeit = schnellere Reaktionszeiten
Edge Computing ermöglicht die Verarbeitung von Daten nah an der Quelle, aus der die Informationen stammen, was einen schnelleren Service und mehr Zuverlässigkeit bedeutet.
Dies führt zu besseren Reaktionszeiten, wenn Unternehmen Anwendungen oder Programme nutzen, sagt Adonay Cervantes, Global Field CTO bei CloudBlue, einer mehrschichtigen E-Commerce-Plattform.
„Und da diese Anwendungen am Rande des Netzwerks betrieben werden, sind sie bei niedrigen Latenzzeiten leistungsfähiger“, sagt er.
Lee Ziliak, Bereichsleiter für Technologie und Geschäftsführer für Architektur beim IT-Lösungsanbieter SHI International, stimmt dieser Einschätzung zu.
„Die Datennutzung am Netzwerkrand ermöglicht es einem Unternehmen auch, Analysen und Vorhersagen anhand von Zeitreihendaten zu treffen, die Überwachungsmöglichkeiten zu verbessern, die Leistung zu steigern und durch die Gewinnung neuer Datenpunkte einen höheren Wert zu erzielen“, erklärt er.
„Das spart Zeit und Geld, da nur die wichtigen Daten gesammelt und gespeichert werden.“
Unabhängig von der Arbeitslast führen Unternehmen Edge Computing ein, weil einige Produktfunktionen aufgrund praktischer oder gesetzlicher Einschränkungen nicht in der Cloud genutzt werden können, sagt David Kinney, leitender Architekt beim IT-Dienstleister SPR Inc.
Er fügt hinzu, dass die häufigsten Einschränkungen in der Praxis, die zur Einführung von Edge Computing führen, darin bestehen, dass die Kommunikation zwischen dem Edge und der Cloud eine zu große Latenzzeit verursacht oder das Kommunikationsmedium langsam oder unzuverlässig ist.
„Die Latenzzeit ist für viele Systeme, die Maschinen steuern, wie z. B. die Kollisionsvermeidungssysteme in neuen Autos, von zentraler Bedeutung“, sagt Kinney.
„Bei vielen dieser Systeme kann eine Verzögerung von nur einem Bruchteil einer Sekunde katastrophale Folgen haben, so dass kritische Berechnungen am Rande des Systems durchgeführt werden müssen.“
Im Hinblick auf regulatorische Einschränkungen sagt er, dass dies häufig bei medizinischen Geräten der Fall ist. Medizinisches Gerät, auf das ein Patient für sein Leben oder seine Gesundheit angewiesen ist, wie z. B. eine Insulinpumpe, muss weiter funktionieren, auch wenn es nicht mit der Cloud kommunizieren kann.
Bewältigung der Herausforderungen der datenintensiven Technologie
Laut Saurabh Mishra, globaler Direktor für IoT-Produktmanagement bei SAS, einem Anbieter von Analysesoftware, trägt Edge Computing auch dazu bei, die mit der Übertragung und Speicherung von Daten verbundenen Kosten zu senken.
„Am Rande des Netzwerks werden riesige Datenmengen erzeugt, und ein großer Teil davon ist sensorbasiert“, sagt er. „Diese Daten sind möglicherweise redundant und ihr Wert ist nur von kurzer Dauer.“
„Anstatt diese Daten in die Cloud zu übertragen und zu speichern und die damit verbundenen Kosten zu verursachen, sind Unternehmen besser dran, wenn sie Edge Computing nutzen, um diese Daten lokal am Standort zu verarbeiten und nur wichtige Ereignisse zurück in die Cloud zu senden.“
Immer mehr Unternehmen kombinieren Edge Computing und die Verarbeitung in zentralen Rechenzentren in einem Hybridmodell, um die Herausforderungen datenintensiver Technologien wie Augmented Reality, Virtual Reality, autonome Fahrzeuge und fortschrittliche KI-Anwendungen zu bewältigen.
Dabei handelt es sich um datenintensive Anwendungen, die für einen erfolgreichen Betrieb eine komplexe Datenanalyse in Echtzeit erfordern, sagt Bob Brauer, Gründer und CEO von Interzoid, einem Beratungsunternehmen für Datennutzung.
Er fügt hinzu, dass ein reiner Cloud-Ansatz oder ein vollständig zentralisierter Ansatz zu erheblichen Latenzzeiten bei der Nutzung dieser datenintensiven Technologien führen würde, was sie weniger effektiv, weniger zuverlässig und möglicherweise sogar unsicher machen würde, insbesondere im Fall von selbstfahrenden Fahrzeugen oder Anwendungen im Gesundheitswesen.
Die hybride Lösung ermöglicht es jedoch, anspruchsvolle Datenverarbeitung, wie z. B. die Erstellung von KI-Modellen, auf einem leistungsstarken Inhouse-System durchzuführen, bei dem die Infrastrukturkosten in der Regel günstiger und skalierbarer sind als in gemeinsam genutzten Cloud-Umgebungen, sagt Brauer.
„Sobald KI-Modelle vollständig, umfassend und gut getestet sind, können sie auf leichtere Datenknoten am Rande des Netzes ausgerollt werden, um sie anzuwenden und geografisch näher an den Systemen, Geräten und Fahrzeugen verfügbar zu machen, die diese Modelle nutzen“, erklärte er.
Auf diese Weise können Unternehmen sofortige Entscheidungen treffen, ohne auf die Kommunikation mit zentralen Servern angewiesen zu sein, die sich physisch irgendwo auf der Welt befinden. Laut Brauer reduziert dieser Ansatz das Latenzrisiko drastisch, ohne die Qualität der zentralen KI-Modelle zu beeinträchtigen.
Damien Boudaliez, stellvertretender Vorsitzender und globaler Leiter der Entwicklung von Datenlösungen bei FactSet, einem Finanzdaten- und Softwareunternehmen, beschreibt, wie Edge Computing seinem Unternehmen zu mehr Effizienz verhilft.
„Das Ziel des Projekts Ticker Plant Cloud von FactSet war es, die Latenz bei der Echtzeitverteilung von Finanzdaten zu minimieren”, sagt er.
„Die Nutzung von Edge Computing ermöglicht es uns, Daten näher an den globalen Kunden zu platzieren und so die Leistung zu optimieren, insbesondere in Regionen wie Asien, wo die Marktentfernungen eine Herausforderung darstellen.“
Darüber hinaus ergänzt das Edge Computing das hybride Cloud-Modell von FactSet, indem es Wahlmöglichkeiten bietet.
„Wir können lokale Ressourcen für umfangreiche, vorhersehbare Datenverarbeitungsaufgaben und die Cloud für dynamischere, standortabhängige Anforderungen nutzen“, sagt Boudaliez.
„Diese Strategie verbessert die Leistung sowohl unserer externen Kunden als auch unserer internen Teams. Indem wir die Rechenressourcen näher an den Kunden und unseren weltweiten Niederlassungen platzieren, minimieren wir die Latenzzeiten und maximieren die Effizienz.“
Fazit
Mit der zunehmenden Verbreitung von Edge Computing in allen Branchen steigen auch die Komplexität und Anforderungen an die Verwaltung des Edge-Betriebs, so Chiodelli von Dell.
„Die Edge-Umgebung ist von Natur aus dezentralisiert und stellt Unternehmen vor die doppelte Herausforderung, Daten an der Quelle zu erfassen und zu sichern, während sie gleichzeitig mit begrenztem IT-Fachwissen zu kämpfen haben“, sagt er.
Diese Komplexität erstreckt sich laut Chiodelli auch auf die Verwaltung und Sicherheit der verschiedenen Edge-Implementierungen auf vielen Geräten und an zahlreichen Standorten. Unternehmen benötigen einen rationalisierten Ansatz für die Überwachung und Sicherung ihrer weit verzweigten Ökosysteme von Edge-Geräten und -Anwendungen.
Während Modelle, die Edge-Server einsetzen, Flexibilität und Kontrolle bieten, ist dieser Ansatz nicht ohne wesentliche Überlegungen, insbesondere die Verwaltung der Technologie am Rande, sagt Kelly Malone, leitender Geschäftsführer bei Taqtile, einem Augmented-Reality-Softwareunternehmen.
„Geräte und Server am Netzwerkrand müssen aktualisiert, synchronisiert und verwaltet werden, was sich als kompliziert erweisen kann, da diese Geräte gemäß der Definition des Edge-Ansatzes nicht an einem zentralen Ort sind“, sagt Malone.
„Und da Unternehmen weiterhin in Metaverse-Technologien eintauchen, die es ihnen ermöglichen, auf einer neuen Ebene zusammenzuarbeiten und ihren Mitarbeitern mehr Effizienz als je zuvor zu bieten, werden sie mehr Edge-ähnliche Technologie einsetzen müssen, um die Menge an Rechenleistung zu bewältigen, die für niedrige Latenzzeiten und eine bessere Leistung erforderlich ist“, sagt Michael McNerney, Vizepräsident für Netzwerksicherheit beim Technologieunternehmen Supermicro.
„Es werden nicht nur geringere Latenzzeiten benötigt, um Entscheidungen am Edge zu treffen, sondern auch weniger Bandbreite, so dass Unternehmen mehr Geräte mit der gleichen Bandbreite bedienen können“, merkte er an.
Ohne Edge-Technologie würden Geräte, die am Netzwerkrand betrieben werden, unter Latenzproblemen leiden, Engpässe in Unternehmensnetzwerken verursachen und andere verarbeitungsbezogene Herausforderungen mit sich bringen, sagt Sharad Varshney, CEO von OvalEdge, einem Beratungsunternehmen für Data Governance.
„Es ist jedoch wichtig, daran zu denken, dass Edge Computing ein Rahmenkonzept ist, das interne kulturelle Veränderungen erfordert, wenn es in Ihrem Unternehmen funktionieren soll“, fügt er hinzu.
„Darüber hinaus ist Edge Computing eine von vielen Lösungen, die Sie in Betracht ziehen sollten, wenn Sie die Datennutzung in Ihrem Unternehmen rationalisieren wollen.“