ICT & Technik

Cloud-Computing und Sicherheit V

Der Umgang mit Big Data als Wettbewerbsfaktor

Zu teuer, zu kompliziert, nur für Grosskonzerne und nur für extreme Datenmengen: So oder so ähnlich lauten übliche Vorurteile bei KMU, wenn es um Big Data geht. Doch die Realität sieht anders aus, und ein Ignorieren des Themas wird für viele Unternehmen zwangsläufig in einem Wettbewerbsnachteil münden.
PDF Kaufen

Das gängigste Missverständnis ist, dass Big Data mit sehr grossen Datenmengen gleichgesetzt wird – selbst erfahrene IT-Leiter vertreten oft diese Auffassung. Sie spiegelt aber höchstens eine eindimensionale Sicht der Dinge wider. Die Kernpunkte für die Relevanz des Einsatzes von Big-Data-Technologien sind die drei Vs der ersten Big-Data-Definition, die mittlerweile eine hohe Bekanntheit erlangt hat: «volume» für grosse Datenmengen, «variety» für die Vielfalt an Daten, die in jeder Form anfallen können, und «velocity» für die in unterschiedlichen und vor allem hohen Geschwindigkeiten anfallenden Daten. Ist auch nur einer dieser Bereiche im eigenen Unternehmen mit herkömmlichen Technologien schwer bedienbar, sollte der Einsatz von Big-Data-Technologien in Erwägung gezogen werden.

Die Implementierung

Mit Big-Data-Technologien können die genannten Herausforderungen (drei Vs) bewältigt werden. Mit traditionell genutzten Business-Intelligence-Tools lassen sich diese Daten entweder überhaupt nicht oder nur mit einem erheblichen Zeitaufwand analysieren. Big-Data-Lösungen hingegen bieten technische Möglichkeiten, mit denen sich umfangreiche Analysen viel schneller durchführen lassen. Zudem ermöglicht es die Big-Data-Technologie, Datenmengen aus der Vergangenheit und Gegenwart und aus den unterschiedlichsten internen und externen Quellen in Beziehung zueinander zu setzen und Korrelationen sowie Muster zu erkennen. Dadurch können auch Auswirkungen und Ergebnisse rechnerisch prognostiziert werden.

Für eine erfolgreiche und schnelle Big-Data-Implementierung sind schon das richtige Aufsetzen des Projekts und die ersten Schritte entscheidend. Generell empfiehlt sich ein iteratives Vorgehen. Zunächst sollte ein dreistufiger Ansatz gewählt werden: mit einer Ermittlung der Daten, einer Analyse der Daten und einer Definition von Anwendungsfällen.

Schrittweises Vorgehen

In einem ersten Schritt ist das «Informations-Ökosystem» des Unternehmens zu untersuchen, um alle für die Geschäftsprozesse relevanten Daten zu ermitteln.

Dabei sind vor allem Fragen zu klären wie:

  • Welche Daten liegen wo und in welcher Form vor?
  • Welches Datenvolumen existiert?
  • Wie häufig werden Daten erzeugt und /oder geändert?
  • Welche bekannten Beziehungen haben die Daten zueinander?
  • Gibt es Einschränkungen bei der Nutzung und Speicherung der Daten?
  • Welche Schnittstellen gibt es für den Datenzugriff?

Die gesammelten Informationen müssen im nächsten Schritt einer Analyse unterzogen werden. Ziel dabei ist, Daten und Zusammenhänge aufzuzeigen, zu clustern und eine System-Daten-Matrix zu
erstellen.

Die Analyse ist meist der aufwendigste Teil, da ein externer Big-Data-Consultant hierfür ein umfassendes Verständnis der branchentypischen Daten und Zusammenhänge mit sich bringen muss. Aus der Analyse ergibt sich in der Regel ein Bild von definierten Datendomänen.

Eine Datendomäne kapselt dabei verschiedene Daten und Datentöpfe in generische Cluster mit ähnlichen Inhalten, z. B. Kundendaten, Interaktionsdaten, Marketinginformationen oder Finanzdaten.

Um eine Einordnung und Bewertung im Big-Data-Kontext zu erleichtern, müssen die Domänen und Daten weiter klassifiziert werden. Kriterien hierfür sind zum Beispiel das Volumen, die Häufigkeit und Art des Auftretens, der Typ (strukturiert oder unstrukturiert) und die Qualität beziehungsweise der Informationsgehalt. Auf dieser Basis kann dann eine System-Daten-Matrix erstellt werden.

In einem dritten Schritt sollten aus der Vielzahl potenzieller Anwendungsmöglichkeiten ein oder zwei konkrete Szenarien ausgewählt werden. Anhand dieser Anwendungsfälle kann dann schnell überprüft werden, ob und wie durch Big Data in kurzer Zeit ein realer Mehrwert für das Business generiert werden kann. Generell hat sich gezeigt, dass bei Big-Data-Projekten nicht von Anfang an der grosse Wurf gewagt werden sollte.

Das Motto muss lauten «Klein anfangen, gross wachsen». Es ist immer ein schrittweises Vorgehen angebracht. So sollte mit einem Pilotprojekt gestartet und erst anschliessend das Lösungsszenario sukzessive ausgeweitet werden. Der Grund: Die Möglichkeiten, die ein Big-Data-Ansatz durch die Verknüpfung aller verfügbaren Datenquellen mit sich bringt, sind komplex. Die Charakteristika eines ersten Szenarios sollten daher eine geringe Komplexität, eine schnelle Realisierbarkeit und ein erkennbarer Mehrwert sein.

Open-Source-Einstieg möglich

Nach Erfahrungen von Consol vertreten rund 90 Prozent aller mittelständischen Unternehmen beim Thema Big Data die Auffassung «dafür sind wir zu klein»; damit sind vor allem die Kosten der technischen Umsetzung gemeint. Zutreffend ist diese Einschätzung aber nicht unbedingt.

Denn Big-Data-Technologien ermöglichen es auch kleinen und mittelständischen Unternehmen, kostengünstig in ein Projekt einzusteigen – teilweise sogar Open-Source-basiert, zumindest im Hinblick auf die Software und Plattform.

Hinsichtlich der zentralen Big-Data-Aufgaben, möglichst viele unterschiedliche Datenquellen miteinander zu verknüpfen und Daten schnell zu analysieren, bieten sich vor allem Systeme an, die hochgradig verteil- und skalierbar sind. Dabei sind nicht nur die Datenbanken relevant, sondern auch verteilte Dateisysteme. Da-zu kommt eine sehr effiziente Nutzung des Arbeitsspeichers (Memory) für die Datenzugriffe und für Berechnungen auf den Daten (Caching).

So setzen No-SQL-Datenbanken im Hadoop-Ökosystem (wie Apache H-Base) hochgradig auf Verteilung und Memory-Optimierung und können so auf Terabytes von Daten extrem schnellen Zugriff bieten.Technologien wie Apache Spark setzen bei der Datenverarbeitung ebenfalls auf Verteilung und Memory-Optimierung, um Geschwindigkeitsvorteile zu erzielen.

Mit den Big-Data-Lösungen können auch die grössten und unstrukturierte Datenvolumina effizient bewältigt werden – sowohl im Hinblick auf die steigende Datenmenge und die grössere Datenvielfalt als auch hinsichtlich der erforderlichen Abfragegeschwindigkeit. Unter anderem kann Big Data die folgenden vier Vorteile bieten:

  • die Identifizierung von Optimierungspotenzialen,
  • eine agile Reaktion auf Veränderungen am Markt, beim Kunden und im eigenen Unternehmen,
  • die Ermöglichung fundierter strategischer Management-Entscheidungen
  • und die Gewinnung von neuen Wett­bewerbsvorteilen.

Jedes Unternehmen – durchaus auch ein mittelständisches – sollte auf jeden Fall überprüfen, inwieweit die Big-Data-Nutzung zusätzliche oder neue Marktchancen eröffnen kann. Denn eines darf in dieser Zeit nicht übersehen werden: Daten sowie Informationen sind die «neue Währung» der Zukunft. Darum bedeutet ein besseres Marktverständnis gleichzeitig einen Informationsvorsprung – und dieser lässt sich leicht in einen Wettbewerbsvorteil ummünzen.