Aus dem Archiv

Deshalb gewinnt Edge Computing an Bedeutung

Uhr
von Thomas Amberg, Dozent für IoT an der FHNW, Gründer, Yaler

Internet-of-Things-Systeme speichern und analysieren Daten in der Cloud. Edge Computing bringt Rechenpower und Datenspeicher an den Rand des Netzwerks, zu den Sensoren und Aktuatoren im Feld. Diese verteilte Systemarchitektur spart Bandbreite, verkürzt Entscheidungswege und schützt die Privatsphäre.

Mit der Zahl von vernetzten Geräten im Internet of Things (IoT) nimmt auch die Menge an Daten zu, die vom Sensor zur Cloud transportiert wird – direkt oder via lokale Gateways. Dies war bisher unvermeidlich, rechenintensive Analysen waren auf Embedded-PCs mit limitierten Ressourcen keine Option. In den vergangenen Jahren hat die Rechenleistung dieser Geräte jedoch massiv zugenommen, bei konstant niedrigem Stromverbrauch.

 

Edge Computing verschiebt das Gleichgewicht

Edge Computer sind üblicherweise Linux-Computer mit CPUs und GPUs mit mehreren Kernen oder Tensor Processing Units für Machine-Learning (ML)-Anwendungen. Auch Datenspeicher von mehreren Terabyte ist günstig genug für lokale Gateways. Und ML-Inferenz ist heute dank optimierter Libraries auf Einplatinenrechnern wie Raspberry Pi und sogar auf Mikrocontrollern einsetzbar.

Edge Computing ist die logische Konsequenz dieser Entwicklung: Wir sind an einem Punkt angelangt, wo es energietechnisch günstiger sein kann, Daten vor Ort auszuwerten, als diese zu übertragen. Zach Shelby, Gründer von Edge Impulse, nennt das den "Compute or Transmit Trade-off", die Abwägung zwischen Rechnen respektive Datenverarbeitung und Übertragung. Die lokale Auswertung von Daten spart zudem Übertragungskosten, reduziert Netzwerklatenz und schützt die Privatsphäre.

 

Verdichten an der Quelle spart Bandbreite

Messverfahren der Industrie, etwa zum Monitoring von Starkstromkabeln, generieren pro Tag mehrere Gigabyte an Rohdaten. Edge Computing erlaubt es, diese Daten vor Ort zu verdichten und nur relevante Events an ein Cloud-Back-End zu übertragen. Lokale Datenspeicherung macht es möglich, bei Bedarf Rohdaten auszulesen – innerhalb eines rollenden Zeitfensters. So wird das Verfahren im Feld über längere Zeit einsetzbar, mit vertretbaren Connectivity-Kosten.

 

Logik vor Ort verkürzt Entscheidungswege

In der Gebäudeautomation ist es schon länger üblich, Sensoren und Aktuatoren der Feldebene durch ein Leitsystem im selben lokalen Netzwerk zu verknüpfen. So kann ein Rauchmelder eine Feuertür sofort schliessen, ohne dass ein Umweg über eine Cloud nötig ist. Im Datenspeicher vor Ort wird alles protokolliert. Das System läuft auch noch, wenn die Internetverbindung mal nicht funktioniert. Der Datenabgleich mit einem Cloud-Back-End kann dennoch sinnvoll sein, etwa um ein zentrales Dashboard für mehrere Liegenschaften zu implementieren.

 

ML-Auswertung im Feld schützt Privatsphäre

ML macht eine einfache Kamera zum Sensor für komplexe Phänomene. So kann etwa mittels Fotos eines Blumenbeetes erkannt werden, wo Blüten sind und welche Bestäuber sich dort niederlassen. So ergibt sich ein Mass für lokale Biodiversität. In diesem Szenario hilft Edge Computing beim Datenschutz, denn statt der Bilder werden bloss Kategorien und Wahrscheinlichkeiten in die Cloud geschickt. Die Privatsphäre versehentlich aufgenommener Personen bleibt gewahrt.

Wie jede Systemarchitektur hat Edge Computing auch Nachteile. Statt einer zentralen Version der Software hat man plötzlich mehrere. Vor Ort gespeicherte Daten sind nicht unbedingt sicherer als die in der Cloud. Und Edge Computer brauchen halt doch mehr Strom als ein Mikrocontroller. Trotzdem: Edge Computing ist die Zukunft.

Webcode
DPF8_255542