Es ist fast schon ein physikalisches Gesetz: Unsere Welt generiert jedes Jahr mehr Daten. Diese Daten im Zettabyte-Bereich – ob nun Metadaten, strukturierte oder unstrukturierte Daten – müssen ausgewertet, gesichert, gespeichert und verwaltet werden. Organisationen werden daher künftig immer stärker auf automatisierte Arbeitsabläufe setzen, indem sie ihre Datenströme mit Hilfe von Künstlicher Intelligenz und Maschinellem Lernen steuern und pflegen. KI-Technologien werden dann beispielsweise helfen, Kapazitätsanforderungen bei der Datenhaltung selbst vorauszuberechnen und bei Bedarf automatisch neuen Speicherplatz in der Cloud dazu zu buchen.
Für manche Unternehmen mag sich das nach Zukunftsmusik anhören – sie mühen sich noch mit verzweigten, unübersichtlich gewordenen IT-Landschaften sowie fragmentierten Datenbanken und Speichersystemen ab. Diese machen es schwer, die richtigen Daten zur richtigen Zeit am richtigen Ort zu haben. Ohne die notwendige Transparenz über die Daten, die im eigenen Rechenzentrum, in der Cloud oder irgendwo an der Edge liegen können, wird es aber ein schwieriges Unterfangen, Innovationen voranzutreiben und damit in einem durch Globalisierung geprägten Wettbewerbsumfeld attraktiv für seine Kunden zu bleiben.
Daten sind die neue Währung der modernen Welt
Auch wenn wir bislang nur vage Vorstellungen davon haben, wie die Welt um uns herum im Jahr 2030 aussehen wird, so können wir eins mit Sicherheit sagen: Wir stehen am Anfang eines neuen Zeitalters, der Daten-Dekade. In den kommenden zehn Jahren werden neue Anwendungen und Dienste entwickelt werden, an die wir heute noch nicht denken. Erste Anzeichen sehen wir bereits: Die Industrieautomatisierung nimmt weiter Fahrt auf, der Schritt vom assistierten zum autonomen Fahren steht bevor und Smart Cities, die dank digitaler Technologien das Leben fortschrittlicher, grüner und sozial inklusiver gestalten, sind keine Zukunftsmusik mehr.
Diese neue Welt funktioniert jedoch nur mit Daten, sie sind das Herzblut. Unternehmen, deren IT-Landschaft vor allem aus „Inseln“ mit einzelnen Brücken besteht, werden mit Redundanzen, Inkonsistenzen und infolgedessen einer unzureichender Datenqualität kämpfen. Deshalb sollte zunächst „Keep it simple“ oberstes Motto sein: Wenn Unternehmen es schaffen, die IT-Infrastruktur zu vereinfachen und zu automatisieren sowie Systeme und Services zu ganzheitlichen Lösungen zu konsolidieren, sind sie auch in der Lage, ihre Daten optimal zu verwalten und zu nutzen. Die Konsistenz bei Architekturen, Orchestrierung und Service-Level-Management sind dabei der Türöffner für ein modernes Datenmanagement.
Nahtlose Verschmelzung von Edge und Cloud
Edge-Computing wird in der Daten-Dekade eine ebenso wichtige Rolle spielen wie bislang das Rechenzentrum oder die Cloud – nicht zuletzt deshalb, weil wir eine regelrechte Explosion des Internet of Things und damit einhergehend des Datenvolumens erleben werden. Ein autonomes Testfahrzeug generiert pro Tag rund 40 Terabyte Daten, eine vernetzte Fabrik Woche für Woche Daten im Petabyte-Bereich. Künftig wird es eher schwierig werden, Systeme, Anwendungen und Dienste zu finden, die nicht miteinander verbunden sind. Dieser kontinuierliche Daten-Output muss allerdings nicht nur gespeichert, sondern bei kritischen Anwendungen auch in Echtzeit vor Ort ausgewertet werden.
Das ist eine Aufgabe, die von heutigen Lösungen kaum zu bewältigen ist. Zukünftig wird es deshalb nicht ohne eine dezentrale Datenverarbeitung gehen. Beispielsweise muss eine „Vorselektion“ erfolgen: Es werden nur jene Informationen in die Cloud geschoben, die für zentrale Aufgaben relevant sind. Alle anderen Daten werden lokal verarbeitet, um eine Reaktion in Sekundenbruchteilen zu erlauben – gerade auch für den Fall, dass eine stabile Internetverbindung fehlt. Minimale Latenzzeiten bilden die Voraussetzung für viele Technologien wie Virtual- und Augmented-Assistenzsysteme oder industrielle Analytics- und KI-Anwendungen. In der Konsequenz muss die IT-Infrastruktur dafür sorgen, dass die massiven Datenmengen nicht nur schnell und sicher zwischen Edge-, Kern- und Cloud-Umgebung hin und her geschoben werden können; sie muss auch dafür sorgen, dass mehr „Intelligenz“ zum Rand wandert, um die Daten gleich vor Ort zu filtern, zu sortieren, zu validieren und zu analysieren. Mit der fortschreitenden Implementierung von 5G und Edge werden deshalb zum Beispiel auch private Hybrid-Clouds am Netzwerkrand existieren, um die Sichtbarkeit und das Management von Daten überall zu gewährleisten.
In den Daten liegt die Zukunft
Eine der größten Hürden auf dem Weg zu einer modernen IT sind derzeit die finanziellen Ressourcen. Ausgaben für Investitionen und die laufenden Betriebskosten können zum limitierenden Faktor werden, wenn es darum geht, den Computing-Bedarf zu planen und vorherzusagen. Unternehmen können allerdings ihren Capex spürbar reduzieren, wenn sie nur für das bezahlen, was sie auch wirklich nutzen. Flexible SaaS- oder Cloud-Verbrauchsmodelle werden zum Standard und Unternehmen helfen, die Vorteile von End-to-End-IT-Lösungen für die notwendige Datenmobilität und -transparenz zu nutzen und bei Bedarf selbst die intensivsten KI- und ML-Arbeiten zu bewältigen.
Big Data ist nun wirklich kein neues Phänomen, das die Welt aus den Fugen hebt – vielleicht sprechen wir künftig lieber von „Incredibly Enormous Data“. Für mich markiert das Jahr 2020 den Beginn der Daten-Dekade. In diese neue Ära treten wir zweifellos mit ziemlich hohen Erwartungen ein – an das, was Technologie für unsere Lebens- und Arbeitsweise leisten kann. Ich bin davon überzeugt, dass wir mit Hilfe von Daten oder besser gesagt durch ihre intelligente Verarbeitung und Verwaltung Durchbrüche in allen Wirtschafts- und Lebensbereichen erzielen werden. Ob im Gesundheitswesen, im Straßenverkehr oder beim schonenden Umgang mit der wertvollen Ressource Umwelt. Daten sind die neue Währung in der modernen Welt, Unternehmen müssen sie als ihr wichtigstes Asset wahrnehmen und behandeln.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.