13.12.2012: Data Governance ist das A und O

Noch nie gab es so viele geschäftsrelevante Daten wie heute. Sie kommen aus den unterschiedlichsten Quellen und sind häufig unstrukturiert. Wer sie nutzen will, muss vor allem auf Korrektheit und Konsistenz achten.

Der Begriff Big Data beschreibt eine Erweiterung vorhandener Methoden und Prozesse des Informations-Managements. Es geht darum, große Mengen an mehr oder weniger strukturierten Daten ihrer Relevanz entsprechend zu erfassen, zu verarbeiten, auszuwerten und für Business-Entscheidungen bereitzustellen.

Datenqualitäts-Management für Big-Data-Projekte erfolgt in mehreren Schritten, die immer wieder neu durchlaufen werden. Die Bedeutung des Informations-Management für die Unternehmen verdeutlicht das Marktforschungs- und Beratungsunternehmen Gartner mit einem anschaulichen Bild: Informationen sind das Öl des 21. Jahrhunderts; die Geschäftsanalysen sind der Verbrennungsmotor, der damit betrieben wird.

Die Unternehmen benötigen heute immer schneller immer größere und möglichst detailliert aufbereite Datenmengen. Eine wichtige Rolle spielen dabei solche Daten, die an den Kundenkontaktpunkten entstehen und auch dort erfasst werden. Dazu gehören die Aufnahme von Werbebotschaften aus Print- und Online-Medien, die Klicks auf den Web-Seiten des Unternehmens, Reaktionen auf Berichte in der Wirtschafts-, Fach- und Tagespresse sowie auf den verschiedenen Social-Media-Plattformen, Reklamationen von Angeboten und Rechnungen, Erfahrungen mit der Dokumentation, Qualität des Support etc.

Die Daten für die Big-Data-Anwendungen kommen aus den unterschiedlichsten Quellen. Diese riesige Menge von Kundenkontaktdaten zu verarbeiten, ist eine Herausforderung. Kein Wunder, dass seit einiger Zeit der Begriff Big Data als Beschreibung der anstehenden Aufgaben in aller Munde ist. Die Metapher von Gartner bringt es auf den Punkt: Aus gewaltigen Datenmengen und heterogenen Datenquellen - wobei die Kundenkontaktdaten beispielhaft für viele andere Daten stehen - müssen die Unternehmen den Rohstoff Information herausfiltern und für Business-Entscheidungen nutzbar machen.

Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen:

  1. Die schiere Menge: Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen.

  2. Der Zeitdruck: Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen.

  3. Die mangelnde Struktur: Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc.

  4. Die wachsende Anwenderzahl: Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.

 

Quelle: Computerwoche, Autor: Klaus Hofmann zur Linden