Startseite>Beiträge>Technik erklärt>Edge-Computing und Fog-Computing verstehen

Edge-Computing und Fog-Computing verstehen

Von ·Kategorien: Technik erklärt·Published On: November 10th, 2020·5.7 min read·

In früheren Blogbeiträgen haben wir angesprochen, was Edge-Server sind, welche Unterschiede zwischen Edge-Computern bestehen und wie man den richtigen Edge-Computer findet. In diesem Beitrag gehen wir jedoch einen Schritt zurück, betrachten das Gesamtbild und behandeln Edge-Computing im Vergleich zu Fog-Computing. Wir werden die Unterschiede und Ähnlichkeiten zwischen beiden untersuchen und einige praktische Beispiele geben. Damit versuchen wir dabei zu helfen, zu entmystifizieren, was zu einer häufigen Frage geworden ist, da Unternehmen jeder Form und Größe daran arbeiten, den besten Standort für die Rechenleistung zu finden. 

Bevor wir also in die Unterschiede zwischen Edge-Computing und Fog-Computing eintauchen, ist es wichtig, das Gesamtbild zu verstehen, das wir erwähnt habe. Es heißt Cloud-Computing. Eine vereinfachte Definition von Cloud-Computing ist Rechenleistung, die als Online-Dienst zur Verfügung gestellt und häufig von einer dritten Partei angeboten wird. Ein gutes Beispiel sind Anbieter von Online-Speicher- und Dateiverwaltungsdiensten (Google Drive ist ein solcher Dienst). Dabei werden Dateien nicht tatsächlich auf Ihren physischen Geräten, sondern vielmehr „in der Cloud“ gespeichert. In industriellen Anwendungen könnten diese Daten, die in vielen Formen vorliegen können, ihren Ursprung bei IoT-Sensoren haben und an einen Cloud-Service wie Amazon Web Services oder Microsoft Azure gesendet werden. Die Daten müssen von den physischen Geräten im Feld in die Cloud übertragen werden. Hier kommen Edge-Computing und Fog-Computing ins Spiel.

Edge und Fog Computing Layers - OnLogic

Ein Beispiel dafür, wie die Sensor-, Edge-, Fog- und Cloud Lagen einer Infrastruktur aussehen.

Was sind die Unterschiede zwischen Edge-Computing und Fog-Computing?

Edge-Computing und Fog-Computing teilen viele Gemeinsamkeiten. Im Wesentlichen sind beide die Wegbereiter des Datenverkehrs in die Cloud. Wie wir in unserem Blog darüber, was Edge-Server sind, erklärt haben, findet Edge-Computing dort statt, wo die Daten erzeugt werden, direkt am „Edge“ (Rand) des Netzwerks einer bestimmten Anwendung. Das bedeutet, dass ein Edge-Computer mit den Sensoren und Controllern eines bestimmten Geräts verbunden wird und dann Daten an die Cloud sendet. Dieser Datenverkehr kann jedoch massiv und ineffizient sein, da irrelevante Daten ebenso an die Cloud gesendet werden können wie die nützlichen Informationen, die tatsächlich benötigt werden. Leider hat auch die Cloud ihre Grenzen in Bezug auf Kapazität, Sicherheit und Effizienz, wenn sie direkt mit Edge-Geräten verbunden ist. Steigen Sie ein in das Fog-Computing.

Fog-Computing im Überblick 

Fog-Computing ist eine Rechenebene zwischen der Cloud und dem Edge. Wo Edge-Computing riesige Datenströme direkt an die Cloud senden könnte, kann Fog-Computing die Daten von der Edge-Ebene empfangen, bevor sie die Cloud erreichen und dann entscheiden, was relevant ist und was nicht. Die relevanten Daten werden in der Cloud gespeichert. Gleichzeitig können die irrelevanten Daten gelöscht oder in der Fog-Ebene für den Fernzugriff oder zur Information lokalisierter Lernmodelle analysiert werden.

Ein gutes Beispiel für Fog-Computing wäre eine Embedded-Anwendung auf einer Produktionslinie, bei der ein mit einem Edge-Server verbundener Temperatursensor die Temperatur jede einzelne Sekunde messen würde. Diese Daten würden dann zur Überwachung von Temperaturspitzen an die Cloud-Anwendung weitergeleitet. Stellen Sie sich vor, dass alle Temperaturmessungen, jede einzelne Sekunde eines 24/7-Messzyklus, an die Cloud gesendet werden. Mit einer Fog-Ebene würde der Edge-Server die Daten zunächst über ein lokalisiertes Netzwerk an die Fog-Ebene senden. Der Fog-Server würde diese Daten dann empfangen und anhand bestimmter Parameter entscheiden, ob es sich lohnt, sie in die Cloud zu senden und damit den Datenverkehr zu reduzieren. Für einfache Temperaturmesswerte mag diese Datenersparnis vernachlässigbar erscheinen, aber stellen Sie sich die Auswirkungen vor, wenn diese konstanten Datenströme mit viel komplexeren Informationen oder großen Dateien, wie Bildern oder Videos, gefüllt würden. Die Auswirkungen auf die Bandbreite und die Latenz, die sich aus der Selektivität hinsichtlich der an die Cloud gesendeten Daten ergeben, können abhängig von der Anwendung massiv sein.

Was sind die Vorteile von Fog-Computing?

Jetzt, da wir wissen, dass Fog-Computing eine zusätzliche Ebene zwischen der Edge-Ebene und der Cloud-Ebene ist – was sind die Vorteile einer solchen zusätzlichen Ebene? Der erste Vorteil ist die Effizienz des Datenverkehrs und eine Reduzierung der Latenz. Durch die Implementierung einer Fog-Ebene werden die Daten, die die Cloud für Ihre spezifische Embedded-Anwendung empfängt, weitaus weniger unübersichtlich. Wo sich eine Cloud erst durch einen Berg unnötiger Daten wühlen müsste, bevor Maßnahmen ergriffen oder Ergebnisse zurückgegeben werden, kann sie nun direkt auf die Daten reagieren, die sie von der Fog-Ebene erhält. Wenn man das Gesamtbild betrachtet, gibt es noch viel mehr Vorteile. Die Menge an Speicherplatz, die Sie für Ihre Cloud-Anwendung benötigen würden, wäre viel geringer, da die Cloud jetzt nur noch relevante Daten speichern und verarbeiten würde. Auch der Datentransfer wäre schneller, da das in die Cloud gesendete Datenvolumen deutlich reduziert wird. 

Was sind die Nachteile von Fog-Computing?

Eine Sache, die klar sein sollte, ist, dass das Fog-Computing das Edge-Computing nicht ersetzen kann. Allerdings kann das Edge-Computing definitiv ohne Fog-Computing auskommen. Der Haken ist also, dass Fog-Computing eine Investition erfordert. Es handelt sich um ein komplexeres System, das in Ihre aktuelle Infrastruktur integriert werden muss. Das erfordert Geld, Zeit, aber auch das Wissen über die beste Lösung für Ihre Infrastruktur. Fog-Computing ist nicht in jedem Szenario eine ideale Lösung, aber für einige Anwendungen können die oben genannten Vorteile für diejenigen attraktiv sein, die derzeit eine direkte Edge-to-Cloud-Datenarchitektur verwenden.

Gibt es Hardware-Unterschiede zwischen Fog-Computing und Edge-Computing?

In Bezug auf die Hardware und die Art der Computer, die Sie verwenden können, lässt sich ein Edge-Server leicht für den gleichen Zweck wie ein Fog-Server einsetzen. Der Grund dafür ist, dass der Unterschied darin besteht, wo und wie Daten gesammelt und verarbeitet werden und nicht unbedingt in den Funktionen und Fähigkeiten der Hardware. Wenn Sie zum Beispiel den Erweiterten Karbon 700 High-Performance Rugged Edge-Computer nehmen, der ursprünglich für das Edge-Computing konzipiert wurde, wäre er genauso gut für das Fog-Computing geeignet. Natürlich ist jedes Projekt einzigartig, daher ist es wichtig, einen klaren Überblick über Ihre gesamten Projektanforderungen zu haben, wenn Sie eine Hardware-Lösung auswählen und konfigurieren. 

Edge-Computing vs. Fog-Computing im Überblick 

Auf den Punkt gebracht ist Edge-Computing eine Datenberechnung, die am Netzwerkrand (Edge) in unmittelbarer Nähe zum physischen Ort stattfindet, an dem die Daten erzeugt werden. Das Fog-Computing hingegen agiert als Vermittler zwischen dem Edge und der Cloud für verschiedene Zwecke, wie zum Beispiel zur Datenfilterung. Letztendlich kann das Fog-Computing das Edge-Computing nicht ersetzen, während das Edge-Computing in vielen Anwendungen ohne Fog-Computing auskommen kann.

Haben Sie Fragen zu den Hardware-Anforderungen für Edge- oder Fog-Computing? Sprechen Sie mit einem unserer Spezialisten, um mehr über die Hardware-Angebote von OnLogic zu erfahren. 

Teilen