Partner-Post Technologien bündeln

Edge Computing – notwendig und vorteilhaft

Uhr
von Steven Henzen, Lead Innovation & Technology, T-Systems Schweiz

Daten direkt an ihrem Entstehungsort zu verarbeiten, bringt viele Vorteile. Jedoch sind Projekte, die Edge Computing mit künstlicher Intelligenz und weiteren digitalen Technologien bündeln, eher aufwändig. Doch es gibt Abhilfe mit Automatisierungen und Virtualisierungen.

Steven Henzen, Lead Innovation & Technology, T-Systems Schweiz. (Source: zVg)
Steven Henzen, Lead Innovation & Technology, T-Systems Schweiz. (Source: zVg)

Edge Computing wird in Kombination mit Technologien wie Computer Vision, Internet of Things (IoT), 5G, Big Data und künstliche Intelligenz (KI) viele Branchen beeinflussen. Sei es, dass im öffentlichen Verkehr in Echtzeit auf Auslastungsdaten reagiert wird, um den Verkehrsfluss zu optimieren, dass in der Fertigung Ausfallzeiten überwacht werden oder dass im Einzelhandel Customer-Behaviour-Analysen dazu führen, dass das Kundenerlebnis verbessert werden kann. In den bislang bewährten Use Cases werden Videostreams für verschiedenste Anwendungsszenarien eingesetzt, die Daten generieren, analysieren und verarbeiten, um letztlich Prozesse zu verbessern und smartere Entscheidungen zu fällen. Bereits heute richten erste Unternehmen ihr Geschäft auf Edge Computing aus, um Kundenbedürfnisse optimaler vor Ort zu bedienen. In den nächsten drei Jahren wird gemäss Studien bereits ein gros­ser Anteil aller Unternehmen in Edge Computing einen Wettbewerbsvorteil sehen.

Datenhoheit aus Datenschutzgründen

Die Überwachung öffentlicher Räume oder von Arbeitsplätzen ist unter DSGVO-Gesichtspunkten eine heikle Angelegenheit. Die Weiterleitung, Speicherung oder Verwendung solcher Daten ist, sofern überhaupt möglich, strikten Vorgaben unterworfen. In diesen Fällen bietet die intelligente Auswertung der Daten am Entstehungsort beziehungsweise direkt am (smarten) IoT-Device den Vorteil, dass sie gar nicht erst gespeichert oder in hohen Volumina übertragen werden müssen. Einfache Anwendungsbeispiele sind etwa das Zählen von Personen in Bus oder Bahn oder die Bestimmung von Personenströmen etwa bei Grossveranstaltungen. Die quellenbasierte Datenverarbeitung reduziert das Gesamtaufkommen des Datenverkehrs, erhöht die Performance von Anwendungen und führt zu optimierten Kosten durch einen reduzierten Bandbreitenbedarf. Zudem treibt sie die Automatisierung voran.

Von "Stand-alone"-Lösungen zu gemanagten Plattformen

Die Einstiegshürde in solche smarte und KI-gesteuerte Projekte ist nicht zu unterschätzen. Unternehmen müssen in die Entwicklung investieren; zumeist wird eine solche Lösung in einem "Proof of Concept" erprobt, ehe sie in die Produktion beziehungsweise den operativen Einsatz gelangt. Die Integrationskosten sind ebenfalls beträchtlich, wenn das Projekt höchst kundenspezifisch ist und sich kaum multiplizieren lässt.

Kosten lassen sich reduzieren, wenn Computer-Vision-Lösungen unter Einsatz von produktisierten Frameworks als Container-Applikationen entwickelt werden. Mittels der "Produktionalisierung" durch Container laufen die KI-Anwendungen in ressourcensparenden Microservices und sind von der darunterliegenden Infrastruktur abgekoppelt. Werden die so entwickelten Produkte auf dem Zielsystem kombiniert, können komplexe Use Cases mit hohem Businessnutzen realisiert werden. Die Entwicklungskosten verteilen sich und auch die Integrationskosten werden gesenkt, da standardisierte Prozesse etabliert und eingesetzt werden können. In beiden Fällen sind die Kosten zu Beginn einer KI-Systementwicklung ein grober Schätzwert und können je nach aufkommenden Herausforderungen stark abweichen. Durch Verwendung von bereits entwickelten KI-Produkten hingegen kann man recht gute Aussagen über die zu erwartenden Kosten treffen. Mittlerweile stehen (auf Wunsch auch skalierbare und gemanagte) Plattformen auf Open-Source-Basis bereit, an die Entwickler ihre IoT-Anwendungen und Applikationen über vorgefertigte Konnektoren einfach ankoppeln können.

Webcode
DPF8_216511