ICT & Technik

Datenmanagement – Cloudcomputing – Sicherheit

Data Analytics: Schritt für Schritt zur eigenen Infrastruktur

Big Data und Data Analytics gehören zu den Kernthemen, mit denen sich Unternehmen im Rahmen der Digitalisierung ihrer Geschäftsmodelle auseinandersetzen. Externe Unterstützung in der Vorbereitungs- und Aufbauphase hilft Unternehmen, schnell und zielgerichtet eigene Strukturen aufzubauen, um Daten zur Wertschöpfung nutzen zu können.
PDF Kaufen

Big Data ist für die Mehrheit der Unternehmen inzwischen ein relevantes Thema, denn Datenanalyse wird zunehmend als wichtiger Beitrag zur Wertschöpfung gesehen. Wer es versteht, mithilfe von Data Analytics aus grossen Datenmengen Erkenntnisse abzuleiten, kann bessere Entscheidungen treffen und Risiken frühzeitig erkennen. Effizientere datengetriebene Lösungen in Produktion, Supply Chain Management und Logistik sowie weit genauere, personalisierte Kundenansprachen verhelfen Unternehmen, zu einem Wettbewerbsvorteil. In einer Erhebung von Bitkom Research und KPMG gaben 36 Prozent der Befragten an, Big Data bereits zu nutzen, weitere 42 Prozent planten die Einführung oder diskutierten darüber.

Aufgabenverteilung

Wo liegen die Herausforderungen beim Einsatz von Data Analytics, in welchen Phasen und für welche Aufgaben sollten sich Unternehmen Hilfe suchen? Technisch ist es kein Problem mehr, grosse Datenmengen sicher zu speichern und in hoher Geschwindigkeit auszuwerten. In riesigen Data Lakes lassen sich selbst unstrukturierte oder polystrukturierte Daten auf Vorrat zur späteren Auswertung ablegen. Firmen können also alle notwendigen Informationen wie Bewegungs-, Transaktions- und Maschinendaten erfassen. Zur Speicherung und Analyse stehen Hadoop, Spark, R und andere als Open-Source-Anwendungen zur Verfügung.

Erfahrungsgemäss haben Unternehmen, wenn sie nach Beratung und Unterstützung für Big Data fragen, noch gar keine konkrete Anwendung im Fokus. Um wirklich Nutzen aus der Datenanalyse zu ziehen, ist es jedoch entscheidend, jeweils zum Unternehmen passende und erfolgversprechende Anwendungen zu finden. Die erste Aufgabe ist es also, herauszu­finden, welche Erkenntnisse aus Daten­analysen dem Unternehmen mit seinem spezifischen Geschäftsmodell helfen würden. Für viele Unternehmen ist gerade das sehr schwierig und unübersichtlich, da die Technologie noch neu ist und auch die Spezialisten im eigenen Hause fehlen. Werden bereits in dieser frühen Phase externe Berater und Partner eingeschaltet, lassen sich Fehler vermeiden und wertvolle Zeit sparen.

Stufenmodell

Dabei hat sich ein Stufenmodell bewährt: Nach einem Überblick zu den Möglichkeiten von Data Analytics und einer gemeinsamen Ideensammlung, meist mit der Führungsebene, sucht man in Workshops mit den einzelnen Fachbereichen nach konkreten Fragestellungen. Dabei wird auch überprüft, in welcher Qualität die Daten vorliegen und ob es sich tatsächlich um Fragestellungen für Data Analytics handelt. In der Regel verbleiben dann vier bis fünf Anwendungen. Häufige Fragestellungen sind zum Beispiel:

  • Analysen zur Optimierung der Customer Journey
  • Next best offer: Basierend auf Daten zu bisherigen Einkäufen, können Angebote ermittelt werden, die für bestehende Kunden mit hoher Wahrscheinlichkeit auch interessant sind.
  • Reduzieren der Kundenabwanderung (Churn reduce): Hier gilt es zunächst zu analysieren, welche Kunden mit hoher Wahrscheinlichkeit demnächst kündigen wollen, um nur dieser Zielgruppe neue oder erweiterte Angebote zu unterbreiten.
  • Aufdecken von Betrugsversuchen: Es geht darum, neue Muster zu finden, aber auch bestehende Annahmen zu überprüfen.
  • Prozessoptimierung: Mithilfe von Datenaufzeichnungen lassen sich Abweichungen vom eigentlichen Prozess aufdecken. Vorgänge dauern zum Beispiel in der Realität länger als in der Planung vorgesehen, wenn an bestimmten Stellen regelmässig Rückfragen notwendig werden. Basierend auf der Datenanalyse, können dann die Prozesse so angepasst werden, dass die benötigten Informationen parallel erhoben werden und rechtzeitig vorliegen.

Use Case und Pilotprojekt

Im nächsten Schritt wählt man aus den so identifizierten Fragestellungen einen Use Case zur Durchführung eines Pilotprojekts. Im Falle einer Versicherung zum Beispiel sollte als Pilotanwendung eine effizientere Methode zur Rechnungsüberprüfung entwickelt werden. Die Ausgangssituation: Im Rahmen der Zusammenarbeit mit zahlreichen Partnerfirmen fielen jährlich über 1,5 Millionen Einzelrechnungen an, nicht alle davon waren richtig ausgestellt. Da eine Überprüfung aller Rechnungen aufgrund der Datenmenge nicht umsetzbar war, wurden, neben einer Standardprüfung einiger typischer Fehlerquellen, manuell etwa zwölf Prozent der Rechnungen nach dem Zufallsprinzip ausgewählt. Letztlich erwiesen sich nur etwa 1,2 der so untersuchten Fälle als fehlerhaft. Der Aufwand war also im Vergleich zum Ergebnis zu hoch.

Im Data-Analytics-Pilotprojekt sollte das Zufallsprinzip durch einen datenbasierten Algorithmus ersetzt werden, sodass bei gleichem Aufwand eine höhere Trefferquote erreicht würde. Die Berater analysierten dazu die Daten nach mehreren Kriterien wie Sparten, Regionen, Vertragsausprägungen und Informationen der Partnerfirmen. Im Ergebnis wurde ein komplexes mathematisches Modell entwickelt, um Rechnungen zur manuellen Überprüfung herauszufiltern. Von diesen erwiesen sich etwa 40 Prozent als fehlerhaft.

Der Lab-Factory-Ansatz

Hat sich ein Unternehmen – meist nach einem erfolgreichen Pilotprojekt – dazu entschlossen, Data Analytics fest in sein Geschäftsmodell zu integrieren, so bietet sich als nächster Schritt der Aufbau einer Lab-Factory-Struktur an. Die Trennung in diese zwei Bereiche ist wichtig, weil beide unterschiedliche Aufgaben zu erfüllen haben: Im Labor geht es darum, verschiedene Fragestellungen zu untersuchen und auch zu experimentieren. Dazu sollten alle Daten und Tools schnell verfügbar und für alle Beteiligten direkt zugänglich sein.

Nach erfolgreichen Tests, zum Beispiel in Form eines Prototyps, werden geeignete Anwendungen zur Umsetzung in die Factory beziehungsweise Produktion übergeben. Hier kommt es dann vor allem auf stabile und effiziente Prozesse, Datensicherheit und Skalierbarkeit an.

Parallel ist die Aufgabe zu lösen, wer das neue Aufgabenfeld künftig betreut. In grösseren Unternehmen geht die Entwicklung bereits dahin, dass Chief Data Officers (CDO) berufen werden. In jedem Fall muss ein Team aufgebaut werden. Da Data Scientists derzeit zu den gefragtesten Spezialisten gehören und schwer zu finden sind, wird es in den meisten Fällen auf eine Kombination aus dem Gewinnen neuer Fachkräfte und dem Upskilling der eigenen Mitarbeiter hinauslaufen.

Letztlich wird das Unternehmen nach gründlicher Vorbereitung und externer Unterstützung bei der Vorbereitung und dem Aufbau eines Data-Analytics-Systems in der Lage sein, die Datennutzung selbstständig weiterzuentwickeln und auch für künftige Wertschöpfung gewinnbringend einzusetzen.