Moderne Applikationen werden heute fast immer in der Cloud aufgesetzt, weil das schnell und günstig von der Hand geht. Zugleich pflegen die meisten Unternehmen ein Erbe aus Applikationen und zugehöriger lokaler Storage-Infrastruktur, auf der sie täglich Daten ablegen. In dieser hybriden Mischwelt aus Cloud und On-Premises lassen sich die Datensilos allerdings klug und effizient mit der neuen Cloud-Welt koppeln und als eine Einheit verwalten – mit einem holistischen IT-Analytics- und Storage-Management.
Hybride Infrastruktur bevorzugt
Moderne neue Applikationen werden in einer Cloud-First-Manier zuerst als reines Cloud-Modell implementiert. Parallel untersuchen nahezu alle mittelständischen und grossen Firmen, wie sie ihre bestehenden Applikationen und Kernprozesse in Richtung Cloud migrieren könnten. Diese Aufgabe ist dabei oft eingebettet in eine Digitalisierungsstrategie.
Aber manche Anwendungen lassen sich schlecht oder nur unter extremem Aufwand migrieren, da ihre Architektur sehr eng mit lokalen Systemen verflochten ist, die sehr sensibel auf Latenzen reagieren oder mit Daten arbeiten, die das lokale Netz nicht verlassen dürfen. Diese technischen Hürden, juristischen Vorgaben und begründeten Sicherheitsbedenken haben die meisten Unternehmen dazu bewogen, auf ein hybrides Betriebsmodell zu setzen.
Jüngste Analystenberichte von IDC, Gartner und ESG sowie eine Reihe von Unternehmensbefragungen zeigen, dass dieser gesunde Pragmatismus die meisten Firmen überzeugt hat, auf eine solche hybride Infrastruktur zu setzen. Philosophische Grundsatzdebatten in Richtung «Cloud only» wurden kaum geführt, zumal jede Firma, die bereits länger auf dem Markt aktiv ist, in eigene Hard- und Software investierte, die von geschultem Personal betrieben wird. Ein reines Cloud-Modell würde diese Investitionen zunichtemachen.
Folgen des Parallelbetriebs
Die IT-Abteilungen haben die neue und die alte Welt also miteinander versöhnt und arbeiten hart daran, die Vorteile aus beiden Ansätzen zu ziehen. Ihr Pragmatismus löst an anderer Stelle aber eine Reihe von Konsequenzen aus, die sich, wenn man sie ignoriert, negativ auf die Managebarkeit und die Sicherheit der Daten auswirken und so das Risiko generell erhöhen.
Die Cloud ist extrem flexibel und kann dynamisch alle möglichen Dienste umsetzen. Die Provider ihrerseits veröffentlichen jedes Jahr mehrere hundert neue Dienste und Module, mit denen Firmen völlig neue Konzepte wie IoT (Internet of Things) realisieren oder bestehende Kernprozesse abbilden können.
Je mehr neue Dienste und ihre Workloads gebucht werden, desto stärker verteilen sich die dazugehörigen Daten auf andere Systeme, Infrastrukturen und Lokationen. Einen Überblick zu behalten, wo welche Daten liegen, wird mit jedem Tag schwieriger. Hinzu kommt, dass im Ernstfall einige Abteilungen selbst Dienste buchen und mit Firmendaten befüttern, die von der zentralen IT-Abteilung nicht autorisiert wurden. Niemand wird in solch einer Situation stichfest behaupten können, dass juristisch relevante Daten wie personenbezogene Informationen das gesicherte Firmennetz nicht verlassen haben.
Zentraler Überblick fehlt
Der fehlende Überblick wird an anderer Stelle ebenfalls spürbar. Die traditionellen Applikationen und ihre Daten werden auf Legacy-Systemen betrieben, die bereits mit bewährten Management-Prozessen und -Tools gesteuert, überwacht und hochverfügbar gehalten werden.
Diese althergebrachte, kontrollierte und im Vergleich zur Cloud durchaus träge Welt wird nun an die dynamische Public Cloud gekoppelt. Die modernen und die alten Workloads sind nicht optimal aufeinander abgestimmt, ihre Daten werden in unterschiedlichen Storage-Systemen gespeichert und gepflegt. Und deren Management geschieht meist isoliert voneinander in separaten Werkzeugen. Der Abgleich zwischen diesen Welten erfolgt in der Praxis daher meist manuell. Das heisst, die IT-Teams überwachen mit selbst entwickelten Skripten und Prozessen beide Welten und versuchen selbst, den Überblick zu behalten.