Edge Analytics: Die Vor- und Nachteile unmittelbarer, lokaler Erkenntnisse

Einige Data Scientists haben mich auf das Thema Datenspeicherung und -verarbeitung angesprochen, über das ich in meinem letzten IoT-Blogbeitrag geschrieben habe. Die meisten ihrer Fragen drehten sich darum, was sie mit ihren Daten machen sollen. Sie waren sich nicht sicher, ob sie ihre Unternehmensdaten speichern oder löschen sollen und was der beste Ansatz ist, um gespeicherte Daten als strategische Ressource im Unternehmen zu nutzen.

Trotz des zunehmenden großflächigen Einsatzes von Sensoren wird ein Großteil der industriell erfassten Daten aus dem Internet der Dinge (Internet of Things, IoT) nicht analysiert – was sehr schade ist. Viele der bestehenden IoT-Plattformlösungen sind unglaublich langsam, teuer und führen zum Verlust von Ressourcen. Das macht es extrem schwierig, den Rest zu analysieren.

Laut Gartner werden 90 % der eingesetzten Data Lakes nutzlos sein und Experian geht davon aus, dass rund 32 % der Daten in US-Unternehmen ungenau sind. Doch Daten sind das wertvollste Gut für jedes Unternehmen und es wäre eine Schande, sie komplett zu löschen oder irgendwo in einem verlassenen Data Lake vor sich hindümpeln zu lassen. Data Scientists sollten ihre wachsenden Pools mit IoT-Daten stattdessen aktiv nutzen, um die von verschiedenen Endpunkten bereitgestellten Informationen zu analysieren und daraus wertvolle Erkenntnisse zu gewinnen, die zu besseren Geschäftsergebnissen führen. Ich bin absolut dagegen, Daten zu löschen, ohne sie zu verarbeiten.

Wie in meinem IoT-Blog erwähnt, wird es in ein paar Jahren 15 bis 40 Milliarden Geräte mehr geben, die Daten am Edge, also am „Rand des Netzwerks“, generieren – zusätzlich zu dem was wir heute bereits haben[1]. Das bringt neue Herausforderungen mit sich. Stellen Sie sich eine Infrastruktur vor, die diese Daten an Data Lakes und Verarbeitungshubs überträgt. Die Last wird in den nächsten Monaten und Jahren weiter exponentiell steigen, sodass Ihre Infrastruktur an ihre Grenzen stößt.

Der einzige Vorteil dieser Daten ist die Möglichkeit, Informationen, die durch den Verkehr der „Dinge“ entstehen oder die von Überwachungskameras generiert werden, zu analysieren. Doch wenn diese Analysen in zeitkritischen Situationen verzögert durchgeführt werden, könnte es „zu spät“ sein. Verzögerungen können viele Gründe haben, zum Beispiel eine begrenzte Netzwerkverfügbarkeit oder überlastete Zentralsysteme.

Edge Analytics ist ein relativ neuer Ansatz, mit dem sich viele dieser Herausforderungen lösen lassen. Im Wesentlichen bedeutet es nichts anderes, als dass Analysen dort durchgeführt werden, wo Daten generiert werden. Es geht darum, Daten vor Ort in Echtzeit zu analysieren. Das Architekturdesign der „Dinge“ sollte integrierte Analysen berücksichtigen. Beispielsweise sollten Sensoren in Zügen oder Bremslichtern, die den Verkehr intelligent überwachen und managen, so leistungsstark sein, dass sie ihre lokale Umgebung analysieren und bei Bedarf einen Alarm an die nächstgelegene Feuerwehr oder Polizeistation ausgeben können. Ein weiteres gutes Beispiel sind Sicherheitskameras. Es macht wenig Sinn, Live-Videobilder zu übertragen, auf denen nichts passiert. Es gibt jedoch Algorithmen, die Veränderungen erkennen können. Sie gleichen die aktuellen mit den vorherigen Bildern ab und übermitteln nur die Abweichungen. In solchen Fällen ist es sinnvoller, Daten lokal zu verarbeiten, statt sie zur Analyse ins Netzwerk zu senden. Es ist wichtig zu verstehen, wo Edge Analytics Sinn macht, ob die „Geräte“ überhaupt eine lokale Verarbeitung unterstützen und wie wir ein verbundenes Netzwerk aufbauen können, um die von Sensoren und Geräten generierten Daten so nah am Geschehen wie möglich zu analysieren. Unternehmen wie Cisco oder Intel setzen auf Edge Computing und vermarkten ihre Gateways als Edge Computing-Geräte. IBM Watson IoT, ein Projekt von IBM und Cisco, ermöglicht leistungsstarke Analysen überall und verändert so das Architekturdesign von Analyselösungen. Und Dell, ein klassischer Anbieter von Server-Hardware, hat spezielle Geräte (Dell Edge Gateway) entwickelt, um Analysen am Edge zu unterstützen. Dell hat ein komplettes Analysesystem (Hardware und Software) entwickelt, mit dem sich ein Analysemodell an einem Ort oder in der Cloud erstellen und dann in anderen Bereichen des Ökosystems implementieren lässt.

Doch mit Edge Analytics müssen auch einige Kompromisse eingegangen werden. So wird nur ein Teil der Daten verarbeitet und analysiert. Das Ergebnis der Analyse wird über das Netzwerk übertragen. Das heißt, dass einige Rohdaten gelöscht werden und möglicherweise Erkenntnisse verlorengehen. Hier stellt sich die Frage, ob dieser „Verlust“ vertretbar ist. Brauchen wir wirklich alle Daten oder ist das Ergebnis dieser Analyse ausreichend? Welche Auswirkungen hat das? Auf diese Fragen gibt es keine allgemeingültige Antwort. Flugzeugsysteme beispielsweise können nicht auf Daten verzichten. Dementsprechend sollten alle Daten übertragen werden, um bei der Analyse Muster aufzuspüren, die zu Unregelmäßigkeiten führen könnten. Allerdings ist es ungünstig, während des Fluges Daten zu übertragen. Daher ist es sinnvoller, offline Daten zu erfassen und während dem Flug auf Edge Analytics zu setzen. In Szenarien, die eine gewisse Fehlertoleranz erlauben, ist es hingegen nicht nötig, alle Daten zu analysieren. Hier müssen wir weiter Erfahrungen sammeln, denn viele Organisationen fangen gerade erst an, sich mit diesem neuen Bereich der IoT-Analyse vertraut zu machen.

Man kann es nicht oft genug sagen: Daten sind wertvoll. Daher sollten alle Daten analysiert werden, um Muster erkennen und Marktanalysen durchführen zu können. Datengetriebene Organisationen entwickeln sich sehr viel schneller weiter als traditionelle Unternehmen. IoT-Edge Analytics ist ein spannendes Feld und bietet eine Lösung für die Wartung und Nutzbarkeit von Daten, sodass viele große Unternehmen in diesem Bereich investieren. Laut einem IoT-Bericht von IDC FutureScape werden bis 2018 40 % aller IoT-Daten dort gespeichert, verarbeitet, analysiert und als Grundlage für weitere Maßnahmen herangezogen, wo sie generiert wurden, bevor sie ins Netzwerk übertragen werden[2]. Die Übermittlung von Daten verursacht Kosten. Diese Kosten müssen wir senken, ohne die Qualität zeitnaher Entscheidungen zu beeinträchtigen. Edge Analytics bietet hier definitiv eine überzeugende Antwort.

 

 

Quellen:

  1. [1]„The Data of Things: How Edge Analytics and IoT go Hand in Hand“ (Die Daten der Dinge: Wie Edge Analytics und IoT Hand in Hand gehen), September 2015.
  2. [2] Forbes-Artikel von Bernard Marr, „Will Analytics on the Edge be the Future of Big Data?“ (Ist Edge Analytics die Zukunft von Big Data?), August 2016.
  3. http://www.forbes.com/sites/teradata/2016/07/01/is-your-data-lake-destined-to-be-useless http://www.kdnuggets.com/2016/09/evolution-iot-edge-analytics.html https://www.datanami.com/2015/09/22/the-data-of-things-how-edge-analytics-and-iot-go-hand-in-hand
  4. https://developer.ibm.com/iotplatform/2016/08/03/introducing-edge-analytics/
  5. http://www.forbes.com/sites/bernardmarr/2016/08/23/will-analytics-on-the-edge-be-the-future-of-big-data/#7eb654402b09 http://www.ibm.com/internet-of-things/iot-news/announcements/ibm-cisco/
  6. https://www.experianplc.com/media/news/2015/new-experian-data-quality-research-shows-inaccurate-data-preventing-desired-customer-insight/

Sind Sie bereit, mit Talend durchzustarten?