IoT-Daten – den Wert erkennen und nutzen

Von   Olaf Dünnweller   |  Senior Sales Director EMEA Central   |  Gigamon
6. Mai 2019

Das „Internet of Things“ (IoT) erzeugt unerschöpfliche Datenmengen. Experten gehen davon aus, dass Daten aus dem IoT [1] in mehr als jedem zweiten Geschäftsprozess eine relevante Rolle spielen werden. Von der Vernetzung der Dinge profitieren also nicht nur Privathaushalte, sondern auch die Industrie. Wie können Unternehmen daraus Wert kreieren und den Datenschatz heben?

1 Unvorhersehbare Datenmangen lassen die Welt kopfstehen. Datenmanagement hilft, den Überblick zu behalten.

Laut einer aktuellen Studie von IDC werden Data-Lakes in den kommenden Jahren rapide weiterwachsen. Die Marktforscher sagen für den Zeitraum zwischen 2018 und 2025 eine Zunahme des weltweiten Datenvolumens von 33 auf 175 Zettabyte (ZB) voraus. Die Daten, die vernetzte Geräte erzeugen, tragen einen gewissen Wert in sich. Die Datenströme im IoT sollten daher in Echtzeit verfügbar sein. Nur so können Unternehmen jederzeit von den neuesten Informationen profitieren. Dies gilt auch für das „Industrial Internet of Things“ (IIoT), was folgendes Szenario verdeutlicht: Echtzeitdaten können beispielsweise die Produktionszyklen der Schwerindustrie positiv beeinflussen. Dadurch lassen sich Ausfallzeiten in einem Hochofen minimieren, Materialkosten einsparen und Kosten reduzieren.

Aufgrund des hohen Werts von IoT-Daten ist es wichtig, jederzeit darauf zugreifen zu können. Darüber hinaus müssen die Daten zu 100 Prozent zuverlässig und sicher vor Manipulationen geschützt sein.

Geschäftsanforderungen sind schwierig vorherzusagen.

Die realistische Prognose von geschäftlichen Anforderungen ist der Schlüssel zum Unternehmenserfolg und wichtige Voraussetzung für einen schnellen Return-on-Investment. Dies gilt für börsennotierte, multinationale Konzerne ebenso wie für innovative Start-ups mit disruptivem Geschäftsmodell. So sehen sich Unternehmen aller Größen mit neuen Herausforderungen konfrontiert. Dazu zählen die zunehmende Digitalisierung der Märkte, der immer härtere Wettbewerbsdruck sowie ein scheinbar endloser Strom von Daten und neuen Technologien.

Diese Kräfte sind jedoch nicht unüberwindbar. Die Technologie wird sich konsequent weiterentwickeln. Um wettbewerbsfähig zu bleiben, müssen Unternehmen sich dieser Herausforderung stellen und neue Lösungen schaffen, die den Kunden einen entscheidenden Mehrwert bieten.

Das IoT zwingt Unternehmen dazu, ihre IT- und Geschäftsprozesse zu überdenken. Am Markt durchsetzen werden sich diejenigen Firmen, die das Management und die Sicherheit ihrer Daten erfolgreich meistern und daraus einen nachhaltigen Wert für ihr Business generieren.

Benötigte Speicherkapazität ist kaum planbar.

IoT-Daten sind meist unstrukturiert und lassen sich daher problemlos in der Public-Cloud-Infrastruktur speichern. Alle großen Cloud-Anbieter stellen kostengünstige, skalierbare Speichersysteme auf Basis von Objektspeicher-Lösungen bereit. Mit schnellen Netzwerken und kostenlosem Datenzugriff lassen sich in der Public Cloud große Mengen an Enterprise-IoT-Daten optimal speichern.

Und die Public Cloud hat noch mehr zu bieten: Cloud Service Provider (CSP) liefern leistungsfähige Datenanalyse-Werkzeuge, die große Mengen an unstrukturierten Inhalten aufnehmen und verarbeiten. Damit können Unternehmen hochskalierbare ML-/AI-Anwendungen entwickeln, um Daten effizienter als in einem privaten Rechenzentrum zu verarbeiten.

Richtige Speicherung von Sensordaten ist wichtig.

Typischerweise werden IoT-Geräte einzeln und aus der Ferne verwaltet und fungieren als eingebettete Appliances wie beispielsweise Kameras. Dies ist jedoch nicht immer der Fall. Viele Unternehmen verfügen über verteilte Umgebungen, in denen Server in verschiedenen Niederlassungen den Zugang zum Gebäude überwachen, die Umgebung kontrollieren oder andere, firmenspezifische Aufgaben übernehmen. Das IoT vernetzt dabei Geräte, mit denen sich Inhalte an vielen Standorten erstellen, speichern und verarbeiten lassen.

Verteilte Daten entstehen außerhalb des Rechenzentrums oder Netzwerks eines Unternehmens. Der Begriff „Edge“ beschreibt dabei Rechen- und Datenmanagement-Aufgaben, die außerhalb dieser Kern-Infrastrukturen ausgeführt werden. Obwohl Cloud-Computing bereits seit vielen Jahren existiert, entwickelt sich die Technologie zusammen mit dem IoT aufgrund des wachsenden, externen Datenvolumens rasant weiter.

Dies stellt IT-Abteilungen vor große Herausforderungen: Sie müssen gewährleisten, dass die Daten angemessen gesichert, zugeordnet und verarbeitet werden. Die meisten IT-Organisationen wissen zwar (halbwegs) genau, wo sich ihre Daten befinden. Das IoT macht es aber schwieriger, den gesamten Content eines Unternehmens sicher in den Griff zu bekommen. Dies wirkt sich auch auf den Datenschutz und die Einhaltung von Vorschriften wie der europäischen Datenschutz-Grundverordnung (DSGVO) aus.

In Backup-Sätzen gesammelte Daten können unter Umständen ebenfalls interessante Informationen enthalten, die über Datenanalysen zugänglich gemacht werden sollen. Allerdings ist dafür ein klassisches Backup kaum geeignet, da die Daten eben nicht ständig verfügbar sind und der Zugriff, speziell bei Bandsicherungen, relativ lange Zeit benötigt.

Zudem kann sich der Wert der Daten in vielen Fällen möglicherweise nicht optimal entfalten, wenn der gesamte Inhalt gespeichert wird. Beispielsweise muss eine Kamera, die an einer Straßenkreuzung vorbeifahrende Autos zählt, nicht das gesamte Video speichern. Es reicht vielmehr, die Anzahl der in einem bestimmten Zeitraum gezählten Fahrzeuge zu dokumentieren. Die Videodaten könnten für einen späteren Zeitpunkt aufbewahrt oder einfach gelöscht werden.

Zu berücksichtigen ist auch, dass die Daten zeitnah verarbeitet werden müssen. IoT-Geräte müssen schnell entscheiden, wie sie Informationen verwerten. Eine Latenzzeit durch das Lesen und Schreiben der Daten in ein Kern-Rechenzentrum kann dabei nicht toleriert werden. Aufgrund dieser Anforderungen müssen Unternehmen die Verarbeitung von Daten und Applikationen an den Rand verlagern. Dort werden sie vorverarbeitet, bevor sie zur langfristigen Aufbewahrung in das Kern-Rechenzentrum hochgeladen werden.

Fazit

Das „Internet of Things“ führt zu einer Vervielfältigung von Schnittstellen, da beliebig viele Objekte miteinander vernetzt werden können. Neben den primären Funktionen der vernetzten Dinge erzeugen diese Schnittstellen große Datenmengen (Big Data) [2] , die ebenfalls ein enormes Potenzial bergen. Um die damit verknüpften, neuen Geschäftsmodelle zu nutzen, sind intelligente Lösungen und Data Science notwendig.

Quellen und Referenzen

[1] https://www.alexanderthamm.com/de/news/interview-smart-industry-iot-magazine/

[2] https://www.alexanderthamm.com/de/artikel/big-data-vom-buzzword-zum-standard-grundlagen-methoden-erfolgsfaktoren/  

 

 

Olaf Dünnweller ist Senior Sales Director EMEA Central bei Gigamon, dem ersten Unternehmen, das eine ganzheitliche Visibilität und Analyse aller Data-in-Motion ermöglicht. In seiner Position treibt er den Ausbau des Partner-Netzwerks in der DACH-Region voran und berät Unternehmen im Public- und Enterprise-Sektor, wie sie die Sicherheitslücke in der Hybrid-Cloud schließen können.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21492

share

Artikel teilen

Top Artikel

Ähnliche Artikel