Edge Computing

25.03.2020
Aktuelles

Zusammenfassung

Die Internetnutzung entwickelt sich zunehmend hin zu bandbreitenintensiven Inhalten und vielen verbundenen Geräten. Gleichzeitig nutzen immer mehr mobile Kommunikations- und Datennetze eine Cloud-Computing-Architektur. Um diesen neuen Anforderungen heute und in Zukunft gerecht zu werden, werden Rechenleistung und Speicher an den Netzwerkrand verschoben, um die Datenübertragung zu beschleunigen und die Verfügbarkeit zu optimieren. Edge Computing bringt bandbreitenintensive Anwendungen, die möglichst geringe Latenzen bieten müssen, näher an den Benutzer bzw. die Datenquelle. Dieser Artikel und das Whitepaper zum Download, erläutern die treibende Kraft hinter Edge Computing genauer und erforscht die verschiedenen verfügbaren Arten von Edge Computing.

Definition von Edge Computing

Beim Edge Computing werden Funktionen zur Datenerfassung und -kontrolle, die Speicherung bandbreitenintensiver Inhalte sowie Anwendungen näher an den Endbenutzer gebracht. Sie werden an einem logischen Endpunkt des entsprechenden Netzwerks (Internet oder privat) positioniert, wo sie einen Teil einer größeren Cloud-Computing-Architektur bilden.

Drei Anwendungsbereiche vor, in denen Edge Computing primär eingesetzt wird.

Edge Computing Anwendung

1. Als Tool, um Informationen aus lokalen Geräten zentral zu erfassen und zu kontrollieren.

2. Zur lokalen Speicherung und Bereitstellung bandbreitenintensiver Inhalte im Rahmen eines Content Distribution Networks (CDN).

3. Als lokales Anwendungs- und Verarbeitungstool zur Replikation von Cloud-Services und zur Isolation des Datacenters von der Public Cloud.

„Vertikale“ Datenübertragung

Wie in der folgenden Abbildung veranschaulicht, starten Daten, die aus dem Inneren eines typischen Cloud-Datacenter-Netzwerks nach außen übertragen werden, bei einer physischen Serverschnittstelle und durchlaufen dann ToR- (Top of Rack) oder EoR-Switches (End of Rack). Von jedem ToR-Switch gehen Daten an einen Aggregations-Switch und die Aggregations-Switches leiten Daten durch einen Core-Switch, der den primären Eingabe- und Ausgabepunkt des Datacenters bildet. Jeder dieser Switches überträgt Daten und wird als Netzwerk-Hop angesehen – mitsamt entsprechender Verlangsamung der Daten und möglicher Netzwerküberlastung. Wenn eine Überlastung auf einer Netzwerkebene vorliegt (wenn also nicht genügend Bandbreite für Spitzenauslastung bereitsteht), kann es während dieser Zeiträume hoher Belastung zu weiteren Verzögerungen kommen.

Electric Micro Data Center

Das Schneider Electric Micro Data Center für die Wandmontage ist eine innovative Lösung für den Einsatz von Servern und Netzwerkkomponenten im Edge-Bereich. Das einzigartige Low-Profile-Design ermöglicht die Wandmontage von Systemen mit großer Tiefe in einem kompakten Gehäuse, das weniger in den Raum hineinragt als konventionelle wandmontierte Gehäuse.

Micro Data Center

Fazit

Edge Computing kann Latenzprobleme lösen und es Unternehmen ermöglichen, ihre Chancen mithilfe einer Cloud-Computing-Architektur besser zu nutzen. Aus bandbreitenintensivem Video-Streaming generierte Workloads verursachen Netzwerküberlastung und Latenzen. Edge-Datacenter bringen bandbreitenintensive Inhalte näher an den Benutzer und Anwendungen, die möglichst geringe Latenzen bieten müssen, näher an die Daten. Die Rechenleistung und Speicherkapazitäten werden direkt am Netzwerkrand integriert, um Übertragungszeiten und Verfügbarkeit zu optimieren. Die verschiedenen Arten von Edge Computing beinhalten lokale Geräte, lokalisierte Datacenter und regionale Datacenter. Die Art, die die Bereitstellungsgeschwindigkeit und die Kapazität bietet, die für künftige IoT-Anwendungen erforderlich sein werden, sind die lokalisierten 1-bis-10-Rack-Versionen. Diese können schnell und einfach entworfen und bereitgestellt werden: in vorkonfigurierten oder vorgefertigten Varianten.

Weitere Informationen entnehmen Sie dem Whitepaper oder fragen direkt bei unseren IT-Experten an.

Edge Computing.pdf

Micro Data Center.pdf

APC_LP_Logo