Dieser Blog-Beitrag wurde von Barry Collins verfasst, einem Autor und Redakteur im Bereich Technologie, der in seiner 20-jährigen Laufbahn bereits an zahlreichen Publikationen und Websites mitgewirkt hat.
Public-Cloud-Services verhalten sich wie reale Wolken: Sie verändern sich ständig, werden von regionalen Faktoren beeinflusst und ziehen auf unvorhersehbare Weise weiter. Da Cloud-Services jedoch zur Bereitstellung von Zahlungsgateways, Webanalysen, Backend-Datenbanken und anderen geschäftskritischen Services genutzt werden, muss jeder Kunde wissen, wie sie funktionieren und wie der Datenverkehr darin, zwischen ihnen und in sie hinein verläuft.
Genau aus diesem Grund erstellen wir den ThousandEyes Bericht zur Cloud-Performance. Der Bericht verschafft den Kunden einen klaren, unverfälschten Einblick in das Verhalten von Public-Cloud-Services, damit sie herausfinden können, welcher Anbieter am besten zu ihren individuellen Anforderungen passt. Im Vorfeld der Veröffentlichung des diesjährigen Berichts zur Cloud-Performance gehen wir der Frage nach, warum ein möglichst genaues Bild der Public-Cloud-Services so wichtig ist.
Nachverfolgung des Datenverkehrs
Ein Trend, der sich in den jüngsten Cloud-Performance-Berichten abzeichnet, ist die zunehmende Schwierigkeit, den Datenverkehr innerhalb der Public-Cloud-Infrastruktur im Blick zu behalten. Dies liegt zum Teil daran, wie Cloud-Provider den Datenverkehr weiterleiten, sobald er sich in ihrem Netzwerk befindet, und wie stark die Leistung bestimmter Standorte, Regionen und Applikationen von der Cloud beeinflusst wird.
Einige Public-Cloud-Provider setzen auf das, was Mike Hicks, Principal Solutions Analyst bei ThousandEyes, als „Hot-Potato-Routing“ bezeichnet, bei dem ein „Cloud-Service-Provider den Datenverkehr so schnell wie möglich an das Internet weiterleitet“. Andere wiederum bevorzugen eigene Backbone-Netzwerke, bei denen der Provider „den Datenverkehr so weit wie möglich über sein eigenes Netzwerk leitet, bevor er ihn an nachgelagerte Stellen abgibt“, so Hicks.
Der Bericht zur Cloud-Performance aus dem Jahr 2022 hat deutliche Unterschiede zwischen den großen Cloud-Anbietern aufgezeigt, wobei AWS von Amazon das Internet stärker nutzt als seine Konkurrenten von Google Cloud oder Microsoft Azure. Und befindet sich der Datenverkehr erst einmal im Netzwerk des Cloud-Providers, kann es schwierig sein, ihn im Auge zu behalten. So zeigte der Bericht aus dem Jahr 2022 beispielsweise, dass Google 33 % der Weiterleitungspfade verschleiert hatte, sobald der Datenverkehr in sein Netzwerk gelangt war.
„Cloud-Provider verwenden komplexe Algorithmen, um das Routing des Datenverkehrs zu steuern und dabei die sich ständig ändernden Bedingungen in den mit dem Internet verbundenen Netzwerken zu berücksichtigen“, erklärte Hicks. „Solche Routing-Entscheidungen sind jedoch nicht immer offensichtlich oder wünschenswert. So kann es beispielsweise vorkommen, dass der für ein inländisches Ziel bestimmte Datenverkehr aufgrund der Architektur einer ausgelagerten Lösung über ein anderes Land geleitet wird.“
Auch wenn Hicks betont, dass die Public-Cloud-Provider nicht böswillig handeln, wenn sie den Datenverkehr umleiten, kann dies bei den Kunden zu Problemen hinsichtlich der Sicherheit oder der Einhaltung von Vorschriften führen. „Dieses Verhalten kann ein Unternehmen Sicherheitsrisiken oder geopolitischen Risiken aussetzen“, erklärte Hicks. „Für Unternehmen, die auf ihre Datensouveränität bedacht sind, ist es von entscheidender Bedeutung, dass sie jederzeit wissen, wo sich die Daten befinden und welchen Weg sie zwischen zwei Punkten zurücklegen. Mithilfe der Pfadvisualisierung sollten alle möglichen Netzpfade transparent und einsehbar gemacht werden, einschließlich der komplexen Peering-Beziehungen, auf denen diese Pfade beruhen.“
Unternehmen achten für gewöhnlich darauf, dass ruhende Daten an der richtigen Stelle gespeichert werden. Die zunehmende Abhängigkeit von Public-Cloud-Netzwerken zwingt jedoch immer mehr Unternehmen dazu, sich auch bei der Übertragung ihrer Daten gründlich über deren Verbleib zu informieren.
„Mobile Daten sind im Hinblick auf die Datensouveränität für viele Unternehmen ein wichtiges Thema“, so Hicks. „Die meisten Debatten über Datensouveränität konzentrieren sich auf ruhende Daten, allerdings darf nicht vergessen werden, dass Daten kein statisches Objekt sind.“
„Um wirklich aussagekräftige Daten zu erhalten, müssen diese oft von Edge-basierten Sammelpunkten zu einem zentralen Warehouse oder Lake, durch Datenpipelines und in Analysemodelle hinein und aus ihnen heraus fließen“, fügte er hinzu. „Aufgrund der dezentralen Beschaffenheit von Organisations- und IT-Infrastrukturen findet außerdem ein ständiger Datenaustausch zwischen Personen, Knotenpunkten und Standorten statt.“
Leistungsschwankungen
Nicht nur die Datensouveränität ist ein Problem, wenn der Datenverkehr einen unerwarteten Verlauf durch ein öffentliches Cloud-Netzwerk nimmt, auch die Leistung kann beeinträchtigt werden.
„Cloud-Provider haben bestimmte Präferenzen und Prioritäten, wenn es um die Lösung von Problemen und die Leistungsoptimierung geht“, erläuterte Hicks. „Diese Präferenzen beruhen nicht auf verschiedenen Servicestufen, sondern auf der bevorzugten Behandlung bestimmter Datenverkehrskategorien. Die Gründe für diese Vorzugsbehandlung sind nicht eindeutig, könnten aber mit den Datenverkehrs- oder Marktbedingungen zusammenhängen. Beide Faktoren sollten bei der Verwaltung gemeinsamer Netzwerke berücksichtigt werden.“
Wenn die Kunden diese Faktoren jedoch nach der Lektüre des Berichts zur Cloud-Performance besser verstehen, können sie eine fundiertere Entscheidung treffen. Laut Hicks müssen Unternehmen sich ihrer Position in Bezug auf diese Präferenzen und Priorisierungen bewusst sein und prüfen, ob sie davon betroffen sein könnten. „Um die richtige Entscheidung treffen zu können, ist es wichtig zu verstehen, wie und welche Services von der Benutzergruppe in Anspruch genommen werden.“
Und man könnte meinen, dass Cloud-Provider, die eher auf ihr eigenes Backbone als auf das störanfälligere öffentliche Internet zurückgreifen, eine bessere Leistung bieten, aber das ist nicht immer der Fall. „Nur weil ein Provider eher ein Backbone- als ein Internet-zentriertes Konzept verfolgt, heißt das nicht zwangsläufig, dass er für Sie am besten geeignet ist“, erklärte Hicks. „Es gibt keine Universallösung, die für alle passt. Es geht nicht nur darum, wo sich Ihre Workloads befinden, sondern auch andere Services des betreffenden Providers spielen eine Rolle – Sie müssen beispielsweise Services wie DNS, Datenbanken usw. unter die Lupe nehmen.“
„Möglicherweise lässt sich die Leistung zwar sehr schnell in das Backbone eines bestimmten Anbieters einspeisen, aber die schwankende Kapazität und der Backbone-Pfad dieses Anbieters sind nicht so kompatibel mit den Anforderungen eines Unternehmens wie eine Internetverbindung für diesen Transport und umgekehrt“, fügte Hicks hinzu.
„Wenn sie die User und die erwartete Leistung besser kennen, kann es sein, dass die Kunden eine etwas geringere Leistungskonsistenz oder eine höhere Latenz bei API-Aufrufen an eine Applikation im Vergleich zur Spezifikation in Kauf nehmen. Dies könnte dazu führen, dass die Applikation in einer anderen Availability Zone, in einer anderen Cloud-Region oder in einer anderen Instanzgröße gehostet wird oder dass die zugrunde liegende Infrastruktur der Applikation ganz anders konfiguriert wird.“
Da sich diese Faktoren natürlich ständig ändern, ist es von entscheidender Bedeutung, dass Public-Cloud-Kunden einen ständigen Einblick in die Entwicklung ihres Datenverkehrs haben. „Unternehmen, die über einen kontinuierlichen Einblick in die verschiedenen Cloud-Ecosystems verfügen, können durchgängig Infrastrukturentscheidungen treffen, die auf die Bedürfnisse der User abgestimmt sind, und sicherstellen, dass diese Entscheidungen auch dann noch optimal sind, wenn sich die Ecosystems weiterentwickeln und neue Optionen zur Verfügung stehen“, ergänzte Hicks.
Regionale Engpässe
Auch wenn die großen Public-Cloud- Provider kontinuierlich ihre eigene Infrastruktur weiter ausbauen, gibt es Teile der Welt, in denen sie nach wie vor auf gemeinsam genutzte physische Leitungen zurückgreifen müssen. Wie im Bericht zur Cloud-Performance aus dem Jahr 2022 festgestellt wurde, wird der internationale Datenverkehr nach Australien hauptsächlich über Unterseekabel geleitet. Bei näherer Betrachtung einer Latenzspitze, die sich über einen Zeitraum von zwei Tagen im Juli 2020 erstreckte, zeigte sich beim Azure- und Google-Cloud-Datenverkehr, der in das Land gelangte, ein nahezu identisches Muster.
Reiner Zufall? Wohl kaum. Der Bericht verdeutlicht vielmehr, dass selbst die großen Cloud-Anbieter anfällig für unvorhersehbare Ereignisse wie Unterwasservulkane, Schiffe, Stürme oder sogar Haie sind, die die gemeinsam genutzten Unterseekabel beschädigen.
Aber auch in weniger dramatischen, alltäglichen Situationen können regionale Engpässe Probleme verursachen. „Die Netzwerkperformance kann im Laufe der Zeit und in verschiedenen Regionen sehr unterschiedlich sein“, sagte Hicks. „Wie bereits erwähnt, ziehen es einige Cloud-Provider vor, den Datenverkehr über das Internet zu leiten und ihn nur in der Nähe ihrer physischen Standorte zu übertragen, während andere versuchen, den Datenverkehr unabhängig von seinem Ziel so nah wie möglich an seinem Ursprung in ihre Netzwerke einzuspeisen.“
„Unternehmen müssen ihre Netzwerkverbindungen überwachen, und zwar unabhängig davon, ob der Datenverkehr innerhalb oder außerhalb eines Public-Cloud-Providers fließt. Dabei gilt es, regionale Performancebedingungen, Routenvielfalt, Internet-Souveränität, die Einhaltung von Gesetzen und gegebenenfalls Unternehmensrichtlinien zu berücksichtigen.“
Fundiertere Entscheidungen
Egal, ob es um einen besseren Überblick über die internationalen Routen geht, die der Public-Cloud-Datenverkehr nehmen kann, um ein besseres Verständnis der Faktoren, die sich auf die Leistung auswirken können, oder um das Wissen um die regionalen Engpässe, die jeden Cloud-Provider betreffen können: Mit dem nächsten Bericht zur Cloud-Performance können Kunden fundiertere Entscheidungen über ihre Infrastruktur treffen.
Der Bericht wird eine neue Reihe potenzieller Abhängigkeiten oder Unregelmäßigkeiten aufzeigen, denen Kunden von Public-Cloud-Plattformen ausgesetzt sein könnten, und es ihnen ermöglichen, intelligentere Entscheidungen zur Optimierung ihrer Architektur zu treffen. Dadurch kann den Unternehmen eine Menge unnötiger Aufwand erspart werden. Mike Hicks erklärt: „Es lässt sich zwar leicht sagen, dass Unternehmen und ihre technischen Teams ihre Architektur für die Cloud intelligenter gestalten sollten, aber die Frage ist, wie?“
„Ganz einfach: durch Visualisierung. Sichtbarkeit und Simulationen sind bei diesen Entscheidungen unerlässlich. Häufig investieren Technik- und Produktteams Zeit und Ressourcen in die Optimierung des Architekturbereichs, den sie für das größte Problem halten, um später festzustellen, dass dieser gar nicht das Problem war.“ Sobald die wichtigsten Leistungsengpässe ermittelt wurden, können „Unternehmen ihre Applikationen und Workloads so gestalten, dass sie effizienter werden, und damit beginnen, ihre Prozesse kontinuierlich zu verbessern“, so Hicks weiter.
Der Bericht kann sogar Bereiche aufzeigen, in denen ein Kunde einen Cloud-Provider zur Verbesserung seiner Leistung bewegen kann. „Unternehmen sollten nicht nur die Performance ihres eigenen Cloud-Providers kennen, sondern auch herausfinden, was eine gute Performance ausmacht, indem sie die Leistung der Konkurrenz analysieren“, verdeutlichte Hicks.
„Auf diese Weise können sie sicherstellen, dass ihr Cloud-Provider mit der Leistung anderer Anbieter mithält. Andernfalls haben sie die Möglichkeit, den Anbieter zu wechseln.“