Das perfekte Team: Internet of Things und Edge Computing
Am Anfang des Internet of Things steht immer ein Sensor, der einem Gerät Intelligenz verleiht. Damit der gesamte IoT-Prozess funktioniert, braucht es aber auch leistungsstarke Rechenkapazität. Wie bekommt man auftretende Latenz-probleme der zentralen Cloud-Lösungen in den Griff?
Kühlanlagen, Karbonrahmen-Produktionslinien, Controller – die Liste der vernetzten und vernetzbaren Objekte im Internet der Dinge (IoT) ist unendlich lang. 50 Milliarden "Connected Products" sollen es gemäss einer Cisco-Studie bis ins Jahr 2020 sein. Das IoT verändert die Art und Weise, wie wir arbeiten und leben, egal ob Industriebetrieb, Velofabrik oder Einfamilienhaus.
Der Einstieg in das IoT beginnt dabei immer mit einem Sensor, der einem Gerät Intelligenz verleiht. Dabei könnte es sich beispielsweise um ein Ventil handeln, das den Füllstand eines Behälters immer auf einem definierten Niveau halten soll. Jedes einzelne mit einem solchen Sensor versehene Gerät ist heute in der Lage, Informationen über seinen aktuellen Status zu melden. Auf diese Weise können Produktionsprozesse überwacht und optimiert werden. Smarte Apps und Analysetools werten die Daten in Echtzeit aus und ermöglichen fundierte Business-Entscheide. Das Resultat ist ein Anstieg bei Produktivität, Effizienz und letztlich auch der Rentabilität.
Geografische Distanz von IoT-Gerät zur Cloud oft zu gross
Damit die Datenmengen von vielen Millionen IoT-Geräten auch adäquat verarbeitet werden können, wird gewöhnlich auf eine leistungsfähige Cloud-Architektur zurückgegriffen. Allerdings waren zentralisierte Cloud-Lösungen nie wirklich für latenzkritische IoT-Anwendungen gedacht. Häufig ist die geografische Distanz von IoT-Gerät zur Cloud zu gross, um brauchbare Latenzen zu gewährleisten. Ein Lösungsansatz für diese Problematik ist das Edge Computing. Der Einsatz von Edge Computing bietet im Vergleich zur konventionellen Cloud diverse Vorteile: So werden bandbreitensensitive Applikationen und Daten, wie sie bei der zentralisierten Datenerfassung im IoT-Bereich anfallen, physikalisch von der eigentlichen Cloud getrennt und an den Rand des Netzwerks gebracht. Da sich die Daten nun geografisch näher am Anwender befinden, sind sinkende Latenzen sowie eine verbesserte Übertragungsgeschwindigkeit die Folge.
Resilienz in der Edge
Den genannten Vorteilen steht mit einer erhöhten Ausfallrate auch ein gewichtiger Nachteil entgegen. Hier gilt die Regel, dass die Ausfallsicherheit der Cloud mit der Anzahl an in die Struktur integrierten Edge-Datacentern abnimmt. Von entsprechend hoher Bedeutung ist daher die physische Widerstandsfähigkeit, oder auch Resilienz, der einzelnen Edge-Endpunkte. Gerade bei kleinen Edge-Datacentern wird die Resilienz oft vernachlässigt, dabei können sich bereits kurze Ausfallzeiten summieren und zu Produktionsausfällen führen. Es ist daher wichtig, dass sich die physische Widerstandsfähigkeit auf einem hohen Niveau befindet.
Es gibt dabei verschiedene Möglichkeiten, die Resilienz zu steigern: Da die Stromversorgung relativ häufig für Störungen verantwortlich ist, wird der Einsatz einer unterbrechungsfreien Stromversorgung (USV) faktisch zur Pflicht. Auch die Anforderungen an Kühlung und Klimatisierung sollten selbstverständlich immer an den aktuellen Bedarf angepasst werden. Ebenfalls muss der Zugriff auf die Server durch eine Zutrittskontrolle reguliert werden. Bei steigender Anzahl von Edge-Datacentern ist zudem der Einsatz einer Fernwartungssoftware sinnvoll.