17.08.2012: Big Data - die Datenflut steigt

Computerwoche: Die explodierenden Datenmengen werden für immer mehr Unternehmen zu einem ernsthaften Problem. Um die Kontrolle zu behalten und möglichst viel Nutzen aus den Informationen zu ziehen, muss die gesamte IT-Infrastruktur hinterfragt werden.

Die Information ist das Öl des 21. Jahrhunderts, und Analytics der Verbrennungsmotor, der damit läuft" - Peter Sondergaard, Senior Vice President von Gartner, bemühte eine Metapher, um die Herausforderung deutlich zu machen. Den Rohstoff Information aus gewaltigen Datenmengen zu extrahieren und zu verarbeiten sei eine der künftigen Kernaufgaben für Unternehmen.

Neue Dimension: Zettabyte

Glaubt man den Marktforschern, wird sich in den kommenden Jahren eine bis dato kaum absehbare Flut an Daten und Informationen auf die Unternehmen in aller Welt zuwälzen. 2010 durchbrach das globale digitale Universum erstmals die Zettabyte-Barriere (1 mit 21 Nullen), ergab die von EMC gesponserte IDC-Studie "Extracting value from Chaos". 2011 soll die weltweit produzierte Datenmenge auf ein Volumen von 1,8 Zettabyte ansteigen, das sind 1,8 Billionen Gigabyte. Damit sei die Informationsmenge den IDC-Analysten zufolge in den zurückliegenden fünf Jahren um den Faktor fünf gewachsen. IBM zufolge produzieren wir derzeit weltweit täglich 2,5 Trillionen Byte Daten (1 mit 18 Nullen). 90 Prozent des derzeitigen globalen Datenbestands seien in den beiden zurückliegenden Jahren entstanden.

Experten fassen diesen Trend unter dem Schlagwort Big Data zusammen. Der Begriff ist neu, nicht aber das Thema. Nach aktuellen Definitionen ist Big Data als neue Dimension zu verstehen, die über bekannte Methoden, Prozesse und Verfahren der Datenanalyse hinausgeht. Vier Entwicklungen bestimmen laut den Experten diese Veränderungen:

  • Volumen: Die Menge der anfallenden Informationen wird weiter drastisch wachsen. Grenzen sind keine erkennbar.
  • Quellen: Neben dem Volumen wächst auch die Zahl der Datenquellen. Waren es früher hauptsächlich Transaktionssysteme, die strukturierte Daten produzierten, kommen heute vielfältige weitere Quellen hinzu wie beispielsweise Sensoren, Social Networks4 und mobile Endgeräte5.
  • Geschwindigkeit: In Zukunft werden Analysen und Auswertungen ad hoc erwartet und gefordert. Wo früher ein monatlicher Report ausreichte, geht heute der Trend in Richtung Echtzeitanalysen.
  • Nutzer: Mit dem steigenden Datenvolumen wächst auch die Zahl der Nutzer von Datenanalysen in den Unternehmen. Die Herausforderung liegt darin, die unterschiedlichen Rollen mit den passenden Auswertungen zu versorgen.

Neben diesen vier Entwicklungen gibt es aus Sicht der Analysten zwei Metaebenen, die Unternehmen beim Daten-Handling beachten müssen:

  • Sicherheit: Die vielfältigen Informationsflüsse gerade auch hinsichtlich der wachsenden Zahl mobiler Endgeräte, die mit Daten versorgt werden wollen, erfordern ausgefeilte Security-Mechanismen.
  • Qualität: Mit den steigenden Datenmengen wird es für die Unternehmen immer wichtiger, eine hohe Datenqualität sicherzustellen. Schon heute klagen viele Firmen über eine mangelhafte oder zumindest zweifelhafte Qualität ihrer Datenbestände.

Die Lage der Anwender

Viele IT-Anbieter haben das Thema mittlerweile aufgegriffen. Von einem anbieter-getriebenen Hype mögen die Analysten nicht sprechen. Auf Anwenderseite gebe es großen Bedarf, die mit wachsenden Datenbeständen zusammenhängenden Probleme zu lösen. Als Beispiel nennen sie die Automobilbranche. Hier gingen die Hersteller verstärkt dazu über, im Rahmen ihrer Modellentwicklung Crash-Tests auf Hochleistungsrechnern zu simulieren. Die dabei anfallenden
Datenmengen seien gigantisch, so die Experten.

Welches Potenzial in einem verbesserten Daten-Handling stecke, lasse sich auch im Einzelhandel beobachten. Die Händler nähmen zwar viel Geld für Analysewerkzeuge in die Hand. Wenn man sich jedoch ansehe, welche Warenmengen nach wie vor auf dem Müll landeten, müsse man annehmen, dass diese Tools nicht besonders effizient funktionierten, kritisieren Fachleute.

Big Data - Chance oder Chaos?

Das Beste aus der Datenflut zu machen gelingt nach Meinung von Mark Beyer, Research Vice President bei Gartner, nur mit radikalen Maßnahmen: "Die Information- Manager in den Unternehmen müssen ihre Datenansätze grundlegend überdenken." Angesichts des großen Drucks biete sich nun die Chance, die Art und Weise der Datennutzung anders zu gestalten. Dazu müsse die IT allerdings die Business-Seite über die damit verbundenen Herausforderungen aufklären
sowie die Kontrolle und Koordination im Daten-Handling sicherstellen. "Sonst wird aus der Big-Data-Chance schnell ein Big-Data-Chaos."

Die Herausforderung für die Unternehmen liegt darin, mit den anfallenden Daten richtig umzugehen. Das heißt, in der Lage zu sein, die richtigen Daten zum richtigen Zeitpunkt an der richtigen Stelle zu analysieren. In der Konsequenz erfordert dieser Anspruch in erster Linie einen intelligenten Umgang mit den Informationen. Es könne nicht nur darum gehen, möglichst viele Daten zu horten in dem Glauben, damit die Hausaufgaben in Sachen Big Data erledigt zu haben.

Autor(en): Martin Bayer
Quelle: Computerwoche