BIG DATA – verständlich und praktikabel

bei

Big Data in der Produktion.
Produktdaten sind bei der Whiskyherstellung eine Rohware. Die Destillerie braucht Analyseinstrumente, um den Wert dieser Daten für sich nutzbar zu machen. Foto: Dreamstime.

Ein Einstieg in die Macht der Daten

Kaum ein Thema wird derzeit als so wichtig angesehen wie Big Data. Dies gilt in allen Branchen unserer Wirtschaft. Immer feingranularer und immer häufiger wird gemessen. So entstehen Unmengen an Daten – ein Rohstoff für die Zukunft. Doch wie gelingt es, diese Daten zum Sprechen zu bringen?

Heute erzeugen und sammeln Unternehmen Daten in unvorstellbaren Mengen. Allein Google erfasst jeden Tag Daten, die dem Tausendfachen aller gedruckten Bücher der Library of Congress entsprechen – der größten Bibliothek unseres Planeten. Der Umfang der weltweit entstehenden Daten ist so enorm, dass die Daten selbst einen neuen Wert in der Informationsgesellschaft darstellen. „Big Data“ wurde in den letzten Jahren nicht nur zu einem populären Schlagwort, sondern entwickelte sich zu einem der Standards in der Industrie. Doch wie „groß“ ist Big Data eigentlich? Wie funktionieren Big-Data-Analysen und welchen Nutzen bringen sie ganz konkret? Diese zentralen Fragen müssen sich Unternehmen beantworten, wenn sie die Macht der Daten für sich nutzen wollen.

Big Data ist Sammeln und Analysieren

Die erste Assoziation, die sich einstellt, wenn der Begriff „Big Data“ ins Spiel kommt, sind riesige Mengen an Daten. Das legt auch der Begriff selbst nahe. Er setzt sich aus den beiden englischen Wörtern big (für „groß“) und data (für „Daten“) zusammen und bürgerte sich Anfang des 21. Jahrhunderts für große, komplexe Datenmengen ein, die mit bislang gebräuchlichen Methoden und herkömmlicher technischer Ausrüstung nicht mehr zu bewältigen waren. Auch wenn sich bis heute keine allgemeingültige Definition durchsetzen konnte, lässt sich doch sagen, dass Big Data als Prozess zwei wesentliche Komponenten umfasst: erstens das massenhafte Sammeln von Daten und zweitens das Analysieren dieser Daten. Erst die Analysen bringen die Daten zum Sprechen. Big-Data-Analysen fördern die in den Datenbergen schlummernden Erkenntnisse zutage, die dann zur Grundlage für Entscheidungen werden können.

Wie groß ist big: Big Data in Zahlen

Big Data in der Landwirtschaft.
In der Landwirtschaft hilft Big Data bei der effizienten Bewirtschaftung großer Flächen. Beispielsweise wird Dünger auf Basis von Satellitenbildern und der Düngehistorie des aktuellen Ortes verteilt. Foto: Shutterstock.

Um eine Vorstellung zu bekommen, von welchen Größenordnungen bei Big Data die Rede ist, kann folgender Vergleich helfen: Die Speichermenge von handelsüblichen Festplatten oder von Speicherkarten, die in Smartphones stecken, wird in der Regel in Gigabyte angegeben. Große Massenspeichersysteme, die im IT-Bereich eingesetzt werden, speichern bis zu 50 Terabyte an Daten. In handelsübliche Smartphones mit einer Kapazität von 32 Gigabyte umgerechnet, entspräche ein solches System einem Berg von etwa 1562 Telefonen. Big-Data-Projekte bewegen sich im Gegensatz dazu in einer Größenordnung im Petabyte-Bereich. Ein Petabyte entspricht 1000 Terabyte. Nimmt man beispielsweise die Millionen von Transaktionen, die pro Tag über Verkaufsplattformen wie Amazon oder Ebay laufen, entstehen im Rahmen der Echtzeit-Vorhersagen über das Kaufverhalten der Kunden Daten von etwa 100 Petabyte. Das entspricht 100.000.000 Gigabyte oder 3.125.000 Smartphones mit 32 Gigabyte Speicherplatz. Aufeinander gestapelt ergäben diese Smartphones einen 215 km hohen Turm.

Und selbst diese Datenmenge erscheint winzig im Vergleich zur aktuellen Gesamtdatenmenge. Ende 2015 existierten weltweit 4 Zettabyte Daten: Ein Zettabyte entspricht der Datenmenge, die auf einer Milliarde Festplatten gespeichert werden kann, wenn auf jede einzelne Festplatte ein Terabyte Daten passt. Diese Datenmenge wächst exponentiell, das heißt: Jedes Jahr verdoppelt sich in etwa das weltweit vorhandene Datenvolumen. Allein auf Facebook werden pro Tag 300 Millionen Fotos hochgeladen und auf Youtube jede Minute Videomaterial im Umfang von 400 Stunden.

Big Data in Industrie & Produktion: Die Produktion verarbeitet enorme Datenmengen. Jeder Roboter überwacht sich selbst und das Werkstück durch eine Vielzahl an Sensoren – die Gesamtheit dieser Sensoren wird in Big Data Anwendungen zusammengeführt.
Foto: Wikipedia.

Datenquellen sind die Grundvoraussetzung

Die erzeugte Datenmenge begann ab dem Zeitpunkt enorm zu wachsen, als die Anzahl der Datenquellen, an denen Daten erzeugt werden, massiv zunahm. Die Digitalisierung von Wirtschaft und Gesellschaft stellte daher die Voraussetzung für die Entstehung von Big Data dar. Daten entstehen heute bei der Überwachung des Flugverkehrs, im Gesundheitsbereich, im Internet, im Mobilfunkbereich, in mit Sensoren überwachten Maschinen und unzähligen weiteren vernetzten Geräten und Gegenständen. So unterschiedlich die Quellen der Daten sind, so unterschiedlich sind auch die Datentypen, die entstehen. Dabei gibt es allerdings eine entscheidende Gemeinsamkeit, die alle Datentypen vereint.

Big Data besteht aus verschiedenen Datentypen

Ob Maschinendaten, Mobilfunkdaten, Wetterdaten, Musikdaten, Bilddaten, Textdaten oder Videodaten – auf einer fundamentalen Ebene betrachtet sind alle Datentypen nichts weiter als eine Ansammlung von digitalen Informationen, die aus langen Reihen von Nullen und Einsen bestehen. Das bedeutet, auf „atomarem“ Niveau sind alle Daten quasi gleich. Genau dieser Umstand ermöglicht es, Zusammenhänge zwischen den unterschiedlichsten Datentypen herzustellen. Das passiert im Fall von Big-Data-Analysen im großen Maßstab. Die verschiedenen Typen von Daten repräsentieren bestimmte Ausschnitte von Wirklichkeit. Textdaten können darüber Aufschluss geben, was Menschen denken, Navigationsdaten geben Auskunft darüber, wo Menschen oder Dinge sich aufhalten, und Maschinendaten lassen Rückschlüsse auf die Funktionsfähigkeit von Fahrzeugen oder Geräten zu. Bei Big-Data-Analysen können all diese Ausschnitte miteinander verknüpft und zu einem großen Bild zusammengefügt werden.

Das Grundprinzip: Muster und Korrelationen erkennen

Big-Data-Projekte zeichnen sich also in der Regel dadurch aus, dass sie nicht einfach die Daten aus einer einzelnen Datenquelle oder eines einzigen Typus von Daten untersuchen. Die spannendsten Einsichten und die gewinnbringendsten Erkenntnisse ergeben sich oft gerade erst daraus, dass Daten aus unterschiedlichsten Quellen nach gemeinsamen oder zusammenhängenden Mustern, Korrelationen und anderen Gemeinsamkeiten durchforstet werden. Um solche Zusammenhänge etwa zwischen Größen wie Wetter, Alter, Geschlecht und Einkaufsverhalten erkennen zu können, fasst man Daten zu Clustern zusammen.

Zur Berühmtheit gelangte das Beispiel einer 18-jährigen Amerikanerin, deren Einkaufsverhalten auf eine Schwangerschaft schließen ließ. Als ihr eine Supermarktkette entsprechend Werbung mit Angeboten für Babyartikel schickte, beschwerte sich der nichts ahnende Vater des Mädchens bei der Geschäftsleitung. Wenige Wochen später stellte sich heraus, dass die Analyse der Kundendaten korrekt war, das Mädchen war schwanger. Der Vater entschuldigte sich anschließend bei der Supermarktkette.

Die Aufbereitung der Daten macht 70–90 Prozent des Aufwandes aus

Big Data in der Wettervorhersage
Je mehr Daten verarbeitet werden, desto genauer sind Wettermodelle. Weltweite Beobachtungen von Atmosphäre und Ozeanen werden mit lokalen Wetterstationen abgeglichen und zu immer besseren Vorhersagemodellen verdichtet. Foto: Shutterstock.

Um zu belastbaren Aussagen zu kommen, müssen Daten miteinander vergleichbar gemacht werden. Global operierende Unternehmen verfügen über einen Datenbestand, der hochgradig heterogen sein kann. In Europa werden Temperaturdaten in Grad Celsius gemessen und gespeichert, in den USA in Grad Fahrenheit – und das ist nur ein Beispiel. Bei Big-Data-Projekten ist es nicht unüblich, dass die Aufbereitung von Daten 70 bis 90 Prozent des gesamten Aufwandes ausmacht. Aber man muss gar nicht so weit gehen und an die Datenkompatibilität über Kontinente hinweg denken. Oft ist schon die Herausforderung groß genug, die Datenquellen dreier verschiedener Abteilungen zusammenzubringen.

Die Vergleichbarkeit von Daten betrifft noch weitere Aspekte: Daten unterscheiden sich bezüglich ihrer Größe, ihrer Anzahl, ihrer Geschwindigkeit und nicht zuletzt hinsichtlich ihrer Genauigkeit. Bestimmte Daten wie beispielsweise Textdaten haben sogar prinzipiell eine gewisse „Unschärfe“. Diese Unschärfe macht sich beim sogenannten Text Mining bemerkbar. Als Text Mining bezeichnet man die Analyse von sehr großen Textsammlungen. Um Trends oder Stimmungen zu bestimmen, können viele hunderte Millionen von Tweets und Posts ausgewertet werden. Das Problem dabei ist, dass die Bedeutung von Wörtern nicht unumstößlich und ein für allemal feststeht. Wörter können ihre Bedeutung je nach Kontext oder Gebrauch wie im Falle von Ironie verändern.

Daten beschreiben die Wirklichkeit

Big Data ist so erfolgreich, weil die Datenmassen eine ganz spezifische Eigenschaft besitzen: Mit ihnen lässt sich die Wirklichkeit relativ genau beschreiben. Das macht die Daten zu einem machtvollen Instrument. Big Data kommt damit einer magischen Kristallkugel gleich, weil die Algorithmen einen Blick in die Zukunft erlauben. Dabei handelt es sich nicht um Magie, sondern vielmehr um die Berechnung von Wahrscheinlichkeiten, ob bestimmte Ereignisse und Szenarien eintreten. Das gelingt mit einer erstaunlichen Genauigkeit, wenn eine Voraussetzung erfüllt ist: dass das Datenmaterial stimmt.

Big-Data-Analysen sind iterative Prozesse

Big Data bei der Verkehrsüberwachung
Big Data bei der Verkehrsüberwachung: Big Data ist schon heute zentrales Element der Steuerung des Verkehrs. Zum Beispiel werden Ampeln so geschaltet, dass Staus gar nicht erst entstehen.
Foto: Pixabay.

Wer nur ein einzelnes Foto von einem Auto sieht, kann nicht mit 100 Prozent Sicherheit sagen, ob es fährt oder ob es steht. Wer allerdings 24 Bilder pro Sekunde von einem Auto aufnimmt, weiß sehr genau, was mit dem Auto passiert. Genauso wie der Unterschied zwischen Fotografie und Film mit der Quantität der Bilder entsteht, macht die Datenmenge bei Big Data einen qualitativen Unterschied: Um sicherzustellen, dass der Blick auf die Wirklichkeit so genau wie möglich ist, werden selbst Messungen in Maschinen nicht nur ein einziges Mal vorgenommen. Big-Data-Analysen sind iterative Prozesse. Das heißt, dass immer wieder neue, aktuelle Daten benötigt werden. Erst daraus ergibt sich das Gesamtbild. Je besser die Datenlage ist, desto genauer können die Modelle, die den Analysen zugrunde liegen, die Wirklichkeit beschreiben. Darum ist bei allen Datenbeständen, die ein Unternehmen sammelt, zu prüfen, ob nicht neue, gegebenenfalls externe Daten hinzugenommen werden müssen.

Der Nutzen von Datenanalysen: auswerten oder verkaufen

Es gibt zwei Hauptanliegen, die Unternehmen mit dem groß angelegten Datensammeln verfolgen. Einerseits, die Daten für eigene Zwecke weiterzuverarbeiten, und andererseits, sie weiterzuverkaufen. In beiden Fällen ist es möglich, neue Geschäftsmodelle zu entwickeln und den bisherigen hinzuzufügen. Die Anwendungsmöglichkeiten von Big-Data-Analysen sind im unternehmerischen Kontext schier endlos: Produkte und Dienstleistungen lassen sich verbessern oder besser verkaufen; Daten lassen sich als Grundlage für strategische Entscheidungen nutzen; durch die Ergebnisse von Analysen können völlig neue Anwendungsfälle entstehen und die Angebotspalette erweitern – dies sind nur ein paar wenige, beispielhafte Möglichkeiten, die zusammengenommen das Potenzial haben, die nächste industrielle Revolution auszulösen.

Zentral für den Erfolg von Big Data: Datensicherheit und Datenschutz

Big Data
„Wer nur ein einzelnes Foto von einem Auto sieht, kann nicht mit 100 Prozent Sicherheit sagen, ob es fährt oder ob es steht. Wer allerdings 24 Bilder pro Sekunde von einem Auto aufnimmt, weiß sehr genau, was mit dem Auto passiert. Das ist ein Grund, große Datenmengen zu sammeln.“ Foto: Dreamstime.

Zwei Aspekte dürfen bei der Diskussion um Big Data nicht vergessen werden: Datensicherheit und Datenschutz. Datensicherheit meint den Schutz der Daten vor dem Zugriff Unberechtigter. Da Daten eine unvergleichliche Transparenz über Personen, Prozesse und Dinge herstellen, rufen sie Begehrlichkeiten hervor. Industriespionage bekommt damit eine ganz neue Aktualität. Angriffe von Hackern stellen eine massive Gefahr für datengetriebene Unternehmen dar. Sensible Unternehmensdaten müssen in gesteigertem Maße geschützt werden. Insbesondere Maschinen- und Anlagenbauer stellen begehrte Angriffsziele dar. Laut einer Studie des Branchenverbands Bitkom waren in den letzten Jahren insgesamt 51 Prozent aller Unternehmen in Deutschland von Cyber-Kriminalität betroffen. Der Diebstahl von sensiblen Daten zählt wie die Sabotage von Betriebsabläufen zu den Hauptdelikten.

Ebenso wichtig für Unternehmen ist die Frage: Darf ich das, was ich tue? Die Einhaltung der nationalen und internationalen Datenschutzbestimmungen ist ein wichtiger Aspekt. Ein Fehltritt bringt nicht nur ein Analyseprojekt zum Scheitern. Vielmehr steht die Reputation des Unternehmens auf dem Spiel, da der Datenschutz aus Kundensicht einen besonders sensiblen Bereich darstellt. Big Data ist demnach kein reines IT-Thema für ein Unternehmen, sondern erfordert die Zusammenarbeit mit Betriebsrat, Juristen und Experten für Governance und Compliance.

Big Data an der Börse.
Big Data an der Börse: Erfolg an der Börse benötigt eine hocheffiziente Verarbeitung von Marktdaten. Beim High-Frequency-Trading werden Geschäfte in wenigen Bruchteilen von Sekunden getätigt. Foto: Dreamstime

Big Data erfordert leistungsstarke Hardware

Mit der steigenden Datenmenge stiegen auch die Anforderung an die Leistungsfähigkeit des technischen Equipments. Bis heute steht das Wachstum der Datenmenge nicht in ausgewogenem Verhältnis zur technologischen Entwicklung von Rechenleistung und Speichermedien. Um Big Data zu speichern und zu modellieren, benötigen Unternehmen große Rechner-Verbünde und Server. Dabei arbeiten nicht selten hunderte von Prozessoren und Arbeitsspeicher parallel. Die Rede von Daten, Virtualität, Digitalisierung und Cloud-Computing lässt die physische Seite von Big Data gern in Vergessenheit geraten – doch ohne teure, schwere und energiehungrige Hardware ist Big Data nicht zu haben.

Das Internet der Dinge, Datenexplosion und der Wert der Daten

Schon heute ist sicher, dass Big Data nicht nur ein Buzzword der vergangenen beiden Dekaden war. Big Data wird im 21. Jahrhundert vielmehr zur Norm. Das Internet der Dinge, also die Vernetzung alltäglicher und industrieller Gegenstände wie Thermostate, Heizungen, Fertigungsanlagen, Autos, Roboter, Uhren, Kleidungsstücke bis hin zur Zahnbürste trägt zum exponentiellen Wachstum der Datenmenge bei und führt zu einer wahren Datenexplosion. Solange im Bereich von Speichertechnologien und Rechenleistung keine bahnbrechende Neuerung den Gang der Entwicklung revolutioniert, werden wir Daten in Zukunft fast ausschließlich in Form von Big Data kennen.

Trotz der komplexen technologischen, rechtlichen, und ethischen Fragestellungen, die mit Big Data verbunden sind, entsteht mit diesen Daten eine der wertvollsten Ressourcen des kommenden Jahrhunderts. Big Data verändert unsere Sicht auf die Welt und unser Verhältnis zu Maschinen. Das autonom fahrende Auto ist ohne Big Data ebenso wenig zu denken wie die Fortschritte im Bereich der künstlichen Intelligenz. Damit wird Big Data zu einem wesentlichen Bestandteil der nächsten industriellen Revolution, deren Anfänge wir gerade erleben: Auf dem eigenen Smartphone, im Supermarkt vor Ort oder in einer fernen Whisky-Destillerie.

Big Data in IT-Infrastrukturen.
Big Data in IT-Infrastrukturen: Der Betrieb moderner Rechenzentren wird mit Big-Data-Techniken optimiert. So können Energie und Kosten gespart werden. Foto: Pixabay.

 

Big Data bei der Wacker Chemie

Wacker Chemie ist ein großes Chemieunternehmen, dessen Hauptrohstoffe Ethen und Silicium sind. Unter anderem beliefert es den Halbleitermarkt mit Wafern, den Grundplatten für die Chips der Computerindustrie. Wir fragten Dr. Alexander Hildenbrand, was für sein Unternehmen Big Data bedeutet:

Big Data ist nicht nur die Analyse großer Datenmengen, sondern generell die Zusammenführung und Auswertung unterschiedlicher Daten. Dies können viele, große, strukturierte, unstrukturierte, unscharfe oder auch flüchtige Daten sein. Die Größe alleine ist zunächst nicht ausschlaggebend.

In der Chemie und Prozessindustrie ist die Automatisierung bereits weit fortgeschritten. Hierzu wird eine Fülle von Sensoren benötigt, die beispielsweise die Temperatur eines Kessels oder den Durchfluss von Dampf messen. Die gewonnenen Daten dienen der Beobachtung und besseren Kontrolle des gesamten Prozesses.

Für die weitere Optimierung des Produktionsprozesses liegt die Herausforderung in der systemübergreifenden Analyse der verschiedenen Daten.

Die Daten müssen zunächst in eine Form gebracht werden, in welcher die Zusammenhänge erkennbar sind. Dieser Teil der Identifizierung, Harmonisierung und Bereitstellung der Daten aus unterschiedlichen Systemen nimmt fast immer den größten Zeitraum ein. Die Daten stehen dem Anwender nun für die unterschiedlichsten Analysen zur Verfügung.

Aus spezifischen Mustern der Daten lassen sich mögliche Vorhersagen etwa zum Ausfall einer Pumpe machen. Die Königsdisziplin – die auch das meiste Wissen zu Daten, Fachlichkeit und Mathematik benötigt – ist der Bereich der Empfehlung. Dabei werden aus den möglichen Szenarien die am besten geeigneten identifiziert.

Big Data
Alexander Hildenbrand, Leiter Business Applications Wacker Chemie.
Foto: privat.

 

 

Data Scientist: ein Beruf mit Zukunft

Die Entwicklung im Bereich Big Data ist vergleichsweise jung. Technologieführer wie Google und Amazon nutzten schon früh die mit Big Data verbundenen Chancen. Heute können auch kleinere und mittlere Unternehmen von Big Data profitieren. Mit dem steigenden Bewusstsein für die Vorteile von Big-Data-Analysen steigt die Nachfrage nach Experten: Data Scientists gehören zu den gefragtesten Fachleuten auf dem IT-Markt – und zugleich zu den seltensten.

Gutes Gehalt: Dabei lohnt es, sich in diesem Bereich zu spezialisieren. Anfangsgehälter zwischen 50.000 bis 60.000 Euro pro Jahr sind marktüblich und steigen später nicht selten auf 80.000 bis 90.000 Euro.

Hohe Anforderungen: Die Schwierigkeit dieses Berufs: Ein (Big) Data Scientist muss Know-how aus drei verschiedenen Richtungen mitbringen: aus der Mathematik, aus der IT und aus der jeweiligen Branche. Das bedeutet, dass ein Data Scientist sehr breit aufgestellt sein muss. Gerade aus diesem Grund ist er entsprechend schwer zu bekommen. Denn während die ersten beiden Fähigkeiten im Rahmen eines Studiums erlernt werden können, beruht das spezifische Fachwissen auf Erfahrung.

Chance Fortbildung: Letzteres eröffnet jedoch Perspektiven für Mitarbeiter, die bereits über entsprechendes Fachwissen verfügen. Sie können die methodischen Grundlagen der Data Sciences nachträglich erlernen und haben so neue Aufstiegschancen.

Big Data
Neue Berufsfelder durch Big Data. Foto: Pixabay

 

Die 7 Dimensionen von Big Data

Eine im Zusammenhang mit Big Data immer wieder geäußerte Kritik beruht auf der falschen Verwendung des Begriffs für Projekte oder Verfahren, auf die der Begriff nicht zutrifft. Entweder ist die Datenmenge so klein, dass sie mit herkömmlichen Rechnern verarbeitet werden kann, oder es handelt sich um sehr homogene Daten etwa ausschließlich um Texte.

Darum etablierten sich fünf bis sieben Schlüsselbegriffe zur Beschreibung von Big Data: Da die englischen Fachbegriffe alle mit V beginnen, spricht man auch von den „5 Vs“ oder den „7 Vs“. Diese Reihe von Begriffen bezeichnet die verschiedenen Dimensionen, die Big Data zu Big Data machen.

Volume – die Datenmenge: Schon der Name Big Data verrät es – die Menge der Daten, die bei Datenanalysen verarbeitet werden, können enorm sein. Ein Beispiel: Der Teilchenbeschleuniger in LHC am CERN bei Genf produziert pro Jahr 30 Petabyte (= 300 Millionen Gigabyte) an Daten. Zum Vergleich: Ein Petabyte Musik im MP3-Format entspricht 2000 Jahren Musikgenuss.

Variety – die Datenvielfalt: Von Big Data ist dann die Rede, wenn nicht nur eine Form von Daten vorliegt wie etwa ausschließlich Tweets in Textform. In der Regel zeigen sich Muster und Zusammenhänge erst durch die Kombination mit verschiedenen anderen Daten wie Geodaten, Wetterdaten, Sensordaten, Rechnungsdaten und so weiter.

Velocity – die Verarbeitungsgeschwindigkeit: Ein herkömmlicher Rechner würde abhängig von der Menge der Daten Monate bis viele Jahre brauchen, um zu einem Ergebnis zu kommen. Big Data erfordert enorme Rechenleistungen. Viele hundert Prozessoren verarbeiten parallel einzelne Rechenoperationen, um schnell zu einem Ergebnis zu kommen.

Veracity – die Richtigkeit der Daten: Je weiter die Menge der Daten anwächst, desto größer wird die Wahrscheinlichkeit, dass sich Fehler einschleichen. Nur wenn die Daten wirklich valide sind, können die Ergebnisse der Berechnungen mit der Wirklichkeit übereinstimmen.

Variability – die Veränderlichkeit der Daten: Ebenso wie sich die Bedeutung eines Wortes im Lauf der Zeit ändern kann, können Daten ihre Bedeutung verändern. Überall wo Daten keine statische Bedeutung haben, ist die Veränderlichkeit eine kontinuierliche Herausforderung. Insbesondere bei der Auswertung von Sprache spielt dieser Aspekt eine große Rolle.

Visualization – die Visualisierung der Daten: Daten in Form von Tabellen, Zahlenreihen oder Formeln sind abstrakt und wenig anschaulich. Daher verdeutlicht man Daten mit Hilfe von Graphen, Charts, Dashboards, Kuchen- oder Balkendiagrammen. Je komplexer die Datenlage ist, desto schwieriger wird es allerdings, die Ergebnisse konkret zu visualisieren.

Value – der Nutzwert der Daten: Big Data wird selten aus reinem Selbstzweck betrieben. In Unternehmen ist das Ziel einer Datenanalyse, Erkenntnisse in einen ökonomischen Wert zu verwandeln. Nicht zuletzt wegen ihres Potenzials, einen wesentlichen Beitrag in der Wertschöpfungskette zu leisten, werden Daten als das neue Öl bezeichnet.

Big Data
Foto: Wikimedia Commons.

 

FAZIT: So profitieren Unternehmen von Big Data

Big Data und Data Analytics bringen zahlreiche neue Möglichkeiten mit sich. Trotz der Vielfalt der Anwendungsmöglichkeiten lassen sich drei Hauptkategorien finden, bei denen Daten die Ökonomie grundlegend verändern.

  1. Big Data als Teil der Industrie 4.0

Unter dem Stichwort Industrie 4.0 wird die umfassende Vernetzung der gesamten Wirtschaft zusammengefasst – von der Produktion über den Vertrieb bis hin zur Verwaltung. Durch Vernetzung und Digitalisierung wird es möglich, Daten in einem noch nie gesehenen Umfang zu erheben und zu verarbeiten. Die Auswertung dieser Big Data kann zu einem Wachstumsmotor werden und ist damit eine der Säulen der Industrie 4.0.

  1. Daten als Entscheidungsgrundlage

Früher stellten neben einfachen Kalkulationen vor allem das Bauchgefühl, Intuition oder auch der sogenannte „Stallgeruch“ Grundlage für unternehmerische Entscheidungen dar. An diese Stelle treten heute komplexe Datenanalysen. Durch die Analyse von Big Data wird die Risikoabschätzung zu einer exakten Wissenschaft. Dank datengestützter Markt- und Trendforschung, Absatzprognosen und der Analyse des Kundenverhaltens steht heute belastbares Wissen zur Verfügung, auf Basis dessen sich unternehmerische Entscheidungen treffen lassen.

  1. Big Data und neue Geschäftsmodelle

Unternehmen, die Daten erzeugen, sammeln und analysieren, haben prinzipiell zwei Möglichkeiten, um Nutzen aus den Daten zu ziehen. Zum einen können sie die Erkenntnisse der Datenanalysen nutzen, um ihre aktuellen Geschäftsmodelle zu überprüfen, anzupassen oder zu erweitern. Zum anderen können sie zu Datenhändlern werden. Wer seine Daten entsprechend aufbereitet, gewinnt dadurch ein branchenunabhängiges neues Geschäftsmodell.

von Christian Schön

Vorheriger ArtikelElektroschrott-Medaillen bei Olympischen Spielen
Nächster ArtikelInteraktives Theater wird zur VR-Serie