ICT & Technik

IT-Sicherheit und Cloud-Management VI

Storage Management in der Hybrid Cloud

Hybride Betriebsmodelle sind in vielen Unternehmen der Standard. Dabei stehen sie vor der Herausforderung, wie sie ihre bestehenden Applikationen und Kernprozesse in Richtung Cloud migrieren könnten. Denn manche Anwendungen lassen sich schlecht migrieren, beispielsweise weil ihre Architektur sehr eng mit lokalen Systemen verflochten ist.
PDF Kaufen

Moderne Applikationen werden heute fast immer in der Cloud aufgesetzt, weil das schnell und günstig von der Hand geht. Zugleich pflegen die meisten Unternehmen ein Erbe aus Applikationen und zugehöriger lokaler Storage-Infrastruktur, auf der sie täglich Daten ablegen. In dieser hybriden Mischwelt aus Cloud und On-Premises lassen sich die Datensilos allerdings klug und effizient mit der neuen Cloud-Welt koppeln und als eine Einheit verwalten – mit einem holistischen IT-Analytics- und Storage-Management.

Hybride Infrastruktur bevorzugt

Moderne neue Applikationen werden in einer Cloud-First-Manier zuerst als reines Cloud-Modell implementiert. Parallel untersuchen nahezu alle mittelständischen und grossen Firmen, wie sie ihre bestehenden Applikationen und Kernprozesse in Richtung Cloud migrieren könnten. Diese Aufgabe ist dabei oft eingebettet in eine Digitalisierungsstrategie. 

Aber manche Anwendungen lassen sich schlecht oder nur unter extremem Aufwand migrieren, da ihre Architektur sehr eng mit lokalen Systemen verflochten ist, die sehr sensibel auf Latenzen reagieren oder mit Daten arbeiten, die das lokale Netz nicht verlassen dürfen. Diese technischen Hürden, juristischen Vorgaben und begründeten Sicherheitsbedenken haben die meisten Unternehmen dazu bewogen, auf ein hybrides Betriebsmodell zu setzen. 

Jüngste Analystenberichte von IDC, Gartner und ESG sowie eine Reihe von Unternehmensbefragungen zeigen, dass dieser gesunde Pragmatismus die meisten Firmen überzeugt hat, auf eine solche hybride Infrastruktur zu setzen. Philoso­phische Grundsatzdebatten in Richtung «Cloud only»  wurden kaum geführt, zumal jede Firma, die bereits länger auf dem Markt aktiv ist, in eigene Hard- und Software investierte, die von geschultem Personal betrieben wird. Ein reines Cloud-Modell würde diese Investitionen zunichtemachen.

Folgen des Parallelbetriebs

Die IT-Abteilungen haben die neue und die alte Welt also miteinander versöhnt und arbeiten hart daran, die Vorteile aus beiden Ansätzen zu ziehen. Ihr Pragmatismus löst an anderer Stelle aber eine Reihe von Konsequenzen aus, die sich, wenn man sie ignoriert, negativ auf die Managebarkeit und die Sicherheit der Daten auswirken und so das Risiko generell erhöhen.

Die Cloud ist extrem flexibel und kann dynamisch alle möglichen Dienste um­setzen. Die Provider ihrerseits veröffentlichen jedes Jahr mehrere hundert neue Dienste und Module, mit denen Firmen völlig neue Konzepte wie IoT (Internet of Things) realisieren oder bestehende Kernprozesse abbilden können.

Je mehr neue Dienste und ihre Work­loads gebucht werden, desto stärker verteilen sich die dazugehörigen Daten auf andere Systeme, Infrastrukturen und Lokationen. Einen Überblick zu behalten, wo welche Daten liegen, wird mit jedem Tag schwieriger. Hinzu kommt, dass im Ernstfall einige Abteilungen selbst Dienste buchen und mit Firmendaten befüttern, die von der zentralen IT-Abteilung nicht auto­risiert wurden. Niemand wird in solch einer Situation stichfest behaupten können, dass juristisch relevante Daten wie personenbezogene Informationen das gesicherte Firmennetz nicht verlassen haben.

Zentraler Überblick fehlt

Der fehlende Überblick wird an anderer Stelle ebenfalls spürbar. Die traditionellen Applikationen und ihre Daten werden auf Legacy-Systemen betrieben, die bereits mit bewährten Management-Prozessen und -Tools gesteuert, überwacht und hochverfügbar gehalten werden.

Diese althergebrachte, kontrollierte und im Vergleich zur Cloud durchaus träge Welt wird nun an die dynamische Public Cloud gekoppelt. Die modernen und die alten Workloads sind nicht optimal auf­einander abgestimmt, ihre Daten werden in unterschiedlichen Storage-Systemen gespeichert und gepflegt. Und deren Management geschieht meist isoliert von­einander in separaten Werkzeugen. Der Abgleich zwischen diesen Welten erfolgt in der Praxis daher meist manuell. Das heisst, die IT-Teams überwachen mit selbst entwickelten Skripten und Prozessen beide Welten und versuchen selbst, den Überblick zu behalten.

Jedes muss dabei manuell immer wieder wegen Änderungen aktualisiert werden und ist damit eine potenzielle Fehlerquelle. Der fehlende zentrale Überblick über die Workloads, deren Verfügbarkeit, Speicherauslastung und deren Backup lässt das Risiko eines Ausfalls und Datenverlusts weiter steigen. 

In dieser komplexen Struktur aus lokaler und gehosteter Infrastruktur prallen schliesslich zwei Welten aufeinander, deren Abhängigkeit untereinander schwierig zu bemessen ist. Wie würde der Ausfall eines der beteiligten Applikationsmodule und Systeme die anderen Elemente und damit die Verfügbarkeit des gesamten Dienstes beeinflussen? Wie liesse sich die Verfügbarkeit der gesamten Applikationskette und deren Disaster Recovery testen, wenn wichtige Schritte manuell erfolgen müssen?

Ein Nebeneffekt des fehlenden Überblicks: Auch die Datensicherung in beiden Welten ist wie die Daten und Workloads selbst fragmentiert. Und auch hier prallen bestehende und bewährte Backup-Konzepte aus der lokalen Welt der Rechenzentren mit der Cloud-Welt und ihren integrierten Backup-Diensten der Provider zusammen. 

Der gesamte Prozess wird in Einzeltools aufgeteilt, die eine eigene Technik, Arbeitsweise, Bedienoberfläche und Restore-Prozesse mitbringen. Es fehlt ein Überblick, ob alle wichtigen Daten und Workloads nach den gleichen Service Level Agreements abgesichert sind und die Daten auf gleichem Niveau wiederhergestellt werden können.

Neue Perspektiven 

Lösungen zur Datenvisualisierung, wie etwa Information Map von Veritas, helfen dabei, sich in den heterogenen Datenlandschaften hybrider Infrastrukturen zurechtzufinden und fundierte Entscheidungen zu treffen. Denn sie bieten in Echtzeit eine einheitliche, visuelle und interaktive Gesamtansicht über alle gesicherten Datenbestände. Dadurch sinkt das Risiko, Informationen zu übersehen, die aufgrund der EU-Datenschutzgrundverordnung (DSGVO) zu löschen oder besonders gegen unberechtigten Zugriff zu schützen sind. 

Auch im Vorfeld einer Migration ist ein solcher Überblick Gold wert. Denn am Anfang eines solchen Projekts steht die Frage, welche Daten überhaupt – und wenn ja, wohin – bewegt werden sollen und können. Um dies zu beurteilen, muss zunächst klar sein, welche Informationen wo liegen, wie sensibel sie sind und wer darauf zugreifen darf. Erst nach erfolgter Bestandsaufnahme lassen sich klare Entscheidungskriterien ableiten, welche Informationen wie in die Cloud migriert werden dürfen.  

Schliesslich hilft ein intelligenter Überblick über die Datenlandschaft, die richtige Storage-Strategie zu entwickeln oder zu überprüfen. Dabei beurteilt die Lösung die Informationen nicht nach formalen, im Vorfeld festgelegten Kriterien. Vielmehr erfasst sie, wie welche Daten im Unternehmen tatsächlich verwendet werden. Auf dieser Basis treffen die IT-Verantwortlichen dann fundierte Entscheidungen. Selten verwendete Informationen, die offenbar nicht unternehmenskritisch sind, können dann auf günstigere Speicherkapazitäten verschoben werden.