Bildquelle: loufre - Pixabay.com

Big Data – Von der Nische in den Mainstream

Von   Tom Becker   |  General Manager Central & Eastern Europe   |  Alteryx
5. Dezember 2018

Es ist rund zwanzig Jahre her, dass der Ausdruck „Big Data“ von John Mashey, Chief Scientist beim damaligen Computerunternehmen Silicon Graphics, geprägt wurde. Informatiker der Association for Computing Machinery griffen den Terminus im wegweisenden Artikel „Visually Exploring Gigabyte Datasets in Real Time“ auf, um zu zeigen, wie man Computer nutzt, so dass sie anhand der Analyse großer Datenmengen zu weiterführenden Erkenntnissen beisteuern. Gleichzeitig diskutiert der Artikel mit als erstes die Herausforderungen der ständig wachsenden Datensätze.
Anfangs noch ein Terminus, der nur in Fachkreisen kursierte, ist Big Data aber mittlerweile im Mainstream angekommen: Eine kurze Google-Suche ergibt rund 5.190.000.000 Einträge zu dem Stichwort und der Blick in die Google Trends-Visualisierung zu Big Data verdeutlicht, wie stark das Interesse seit den 2012 angestiegen ist. Das kommt nicht von ungefähr – generieren wir doch bei jeder Transaktion oder Nutzung von Diensten Daten und hat sich die Rechenleistung der Computer in den vergangenen Jahren exponentiell gesteigert. Die Herausforderung für moderne Unternehmen in dieser Situation besteht mehr denn je darin, handfeste Ergebnisse aus der Analyse großer Datenmengen zu ziehen – und dabei das große Ganze nicht aus dem Blick zu verlieren.

Von Alexandria zum Internet: Die Nadel im Heuhaufen

Mit geschätzten 40.000 bis zu 400.000 Schriftrollen war die sagenumwobene Bibliothek in Alexandria die größte Wissensquelle der damaligen Zeit. Heutzutage werden allein 40.000 Google-Suchanfragen pro Sekunde gestellt. Und wem das immer noch nicht reicht: Insgesamt werden 2,5 Quintillionen Daten im Netz generiert – pro Tag! Mit dem weiteren Voranschreiten des Internet of Things steigt die Zahl der generierten Daten ins schier Unermessliche.

Die größte und beste Bibliothek der Welt ist aber nutzlos, wenn das gesuchte Buch nicht gefunden werden kann – und je größer die Bibliothek wird, desto größer wird dann auch die Verwirrung. Deshalb gilt für Unternehmen im Zeiten der explodierenden Datenvielfalt mehr denn je: Man muss einen Weg finden, mit den großen Datenmengen produktiv und effizient umzugehen und die wirklich relevanten Informationen herauszufiltern.

Die Pioniere der digitalen Datenanalyse entwickelten in den 1950er Jahren die ersten Programmiersprachen, mit denen sie in der Lage waren, Computern logische Befehle zu geben und mit einfachen Datensätzen zu interagieren. Mit der Einführung von SQL in den 1980er Jahren wurde ein weiterer wichtiger Sprung vollzogen. Heutzutage bildet SQL neben R eine der relevantesten Programmiersprachen zur Verarbeitung großer Datenmengen.

Den Wald vor lauter Bäumen nicht aus dem Blick verlieren – oder: Wie übersetzt man Billionen Einsen und Nullen?

Daten bestehen aus einer quasi unendlichen Abfolge von Einsen und Nullen – für Computer sind diese leicht auslesbar, Menschen verlieren dabei aber sehr schnell den Überblick. Ein Meilenstein in der Entwicklung der Computer war die Erfindung des Graphical User Interface – jetzt war es auch Laien möglich, einen Computer mit Hilfe von graphischen Symbolen zu bedienen statt mit komplizierten Codes. Ein vergleichbarer Meilenstein in der digitalen Datenanalyse ist die Entwicklungen von benutzerfreundlichen Technologielösungen.

Mittlerweile sind bei Big Data Analytics also zwei Herangehensweisen möglich: Zum einen code-friendly Ansätze für hochspezialisierte Experten, die selbst Codes schreiben, abändern und anpassen wollen und können. Und zum anderen user-friendly Lösungen für qualifizierte Laien – also zum Beispiel Mitarbeiter, die lediglich einen vorgefertigten Analyseprozess durchführen wollen, um zu relevanten Ergebnissen zu gelangen.

Mit diesem Schritt wurde Big Data Analytics aus der hochspezialisierten Nische in den Mainstream katapultiert. Besonders für Unternehmen, die mittlerweile auf immer größeren Datenmengen sitzen, sind sogenannte Self-Service-Tools sehr attraktiv, da sie einer immer größeren Zahl an Mitarbeitern die Möglichkeit eröffnen, selbstständig, schnell und effizient Datenanalysen durchzuführen, diese mit Fachwissen zu bewerten und zu datenbasierten Entscheidungen zu gelangen. Code-freie Self-Service-Angebote wie Alteryx und Tableau ermöglichen so ein sehr viel schnelleres und produktiveres Arbeiten als die bisherigen Modelle, die nur von hochspezialisierten Data Scientists verwenden werden konnten.

Predictive Analytics: Trends werden vorhersagbar

Ein weiterer großer Fortschritt in der Datenanalysetechnologie war der Schritt zu Predictive Analytics – der Vorhersage: Daten aus der Vergangenheit helfen nun, die Zukunft besser einzuschätzen und zu planen. Die großen Unternehmen haben das schon früh erkannt und rechnen heute ihre verfügbaren Daten hoch, um die Zukunft greifbar zu machen. Big Data liefert dadurch Zukunftsszenarien und gibt konkrete Hinweise, worauf Unternehmen achten müssen.

Heute sind Algorithmen vor allem an „Deep Learning“ angelehnt, einer Methode, die die neuronalen Verbindungen des Gehirns nachahmt, quasi alle Informationen miteinander verbindet, so also eine Art Intelligenz aufbaut und Fälle „wiedererkennt“. Dadurch sind  automatisierte Vorhersagemodelle möglich, die auf weitreichenden, zuverlässigen Datensätzen  basieren und Unternehmen helfen, mit einem hohen Maß an Genauigkeit die Zukunft zu planen.

Von einfacher Analyse zu handfester Strategie: Integration von Datenanalyse in den Geschäftsalltag

Die besten Analysen sind aber nutzlos, wenn diese nicht integriert und daraus keine Handlungsanweisungen generiert werden können. Deshalb sind insbesondere die Einbindung in bestehende Prozesse innerhalb von Unternehmen sowie die Kompatibilität der Technologielösungen wichtige Größen. Moderne Datenanalyseplattformen ermöglichen heutzutage aber nicht nur die benutzerfreundliche Analyse, und Prognosen darüber, wie sich das eigene Unternehmen und der Markt in Zukunft verändern wird, sondern neben der Verwaltung von Prognosemodellen sogar die Integration in Produktionsabläufe.

Demokratisierung der Big Data Analytics

Microsoft, Apple und Google gehörten als digitale Giganten zu den ersten, die dank ihrer Technologie mit großen Datenmengen umgehen konnten. Die rasanten Weiterentwicklungen der Technologielösungen und das breite Spektrum an verschiedenen Anbietern bieten mittlerweile aber Unternehmen aller Art die Möglichkeit, ihre Daten zu sammeln, auszuwerten und daraus geschäftsrelevante Erkenntnisse zu generieren – und das unabhängig vom jeweiligen Geschäftsmodell.

Die heute auf dem Markt verfügbare Technologie ist so weit fortgeschritten, dass jedes Unternehmen Data Analytics zu einem zentralen Thema machen kann und sogar muss, um im Wettbewerb zu bestehen. Dass dies immer mehr Unternehmen erkennen, zeigt die Studie der Dresner Advisory Services wonach die Akzeptanzraten für Big Data Analytics von 17 Prozent im Jahr 2015 auf 53 Prozent der untersuchten Unternehmen im Jahr 2017 gestiegen sind. Mit anderen Worten: Big Data Analytics ist im Mainstream angekommen.

Tom Becker ist General Manager Central & Eastern Europe bei Alteryx. Er verfügt über eine langjährige Erfahrung im Softwaregeschäft, u.a. bei der Seeburger AG und QlikTech GmbH. Als Autor und Redner beschäftigt er sich mit Datenanalyse und der Digitalisierung.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21434

share

Artikel teilen

Top Artikel

Ähnliche Artikel