gearstd - Fotolia

Machen Sie Ihre Daten widerstandsfähiger mit strategischer Planung

Strategische Planung und Verteidigung in der Tiefe verbessern die Widerstandsfähigkeit der Daten. Ein Fokus auf ständiger Verfügbarkeit ist nötig.

Dieser Artikel behandelt

Disaster Recovery

Ausfallzeiten sind heute teuer und inakzeptabel. Um die ständige Verfügbarkeit der Daten sicherzustellen, ist sorgfältige Planung nötig, die mehrere Faktoren berücksichtigt.

Die Datensicherheitskonzepte Recovery Point Objective (RPO) und Recovery Time Objective (RTO) veralten zusehends. In der heutigen Welt sind Administratoren gefordert, die die Widerstandsfähigkeit ihrer IT sicherstellen und für ständige Verfügbarkeit sorgen. Zudem werden Ausfallzeiten immer teurer und sind fast nicht mehr zu verkraften.

Laut einer Studie der Marktforscher des Ponemon Institute aus dem Jahr 2016 betragen die Kosten eines Rechenzentrumsausfalls etwa 740.000 Dollar pro Stunde. Dieser Betrag liegt etwas höher als der im Jahr 2015 vom Provider Infrascale errechnete.

Laut Ponemon dauert es im Schnitt 18,5 Stunden, bis sich ein Unternehmen von einem Desaster erholt hat. Für große Unternehmen kann dies existenzbedrohend werden. So kostete ein Ausfall 2016 die Fluglinie Delta Airlines 150 Millionen Dollar.

Die IT-Branche reagiert auf diese Bedrohung mit einer Schwerpunktverlagerung weg von traditioneller Backup- und Recovery-Planung hin zu Disaster-Recovery- und Business-Continuity-Plänen.

Sorgfältiges Planen mit dem Fokus auf ständiger Verfügbarkeit und Widerstandsfähigkeit der IT ist nötig. Der Schlüssel liegt darin, potentielle Schwachstellen aufzuspüren und die nötigen Reaktionen vorzuzeichnen. Es gibt keine Zauberformel für den vollständigen Schutz. Stattdessen sollten Administratoren auf Prozesse in verschiedenen Schichten setzen, um eine Verteidigung in der Tiefe zu gewährleisten.

Für Redundanz im Rechenzentrum sorgen

Der erste Schritt im Abwehrplan besteht darin, mögliche Gefahrenherde aufzudecken, die einen Ausfall bewirken könnten. Dann sollte man auf Redundanz als Gegenmaßnahme setzen. Um ein einfaches Beispiel zu nennen, schützen sich die meisten Unternehmen gegen Festplattenversagen mit Disk Mirroring (RAID 1). In ähnlicher Weise helfen Failover Cluster gegen den Wegfall von Knoten und Notstromaggregate gegen Stromausfall.

Redundanz ist wichtig, genügt aber nicht. Selbst wenn jede einzelne Komponente doppelt abgesichert ist, kann immer noch das Rechenzentrum zum Point of Failure werden.

Die Widerstandsfähigkeit des Rechenzentrums stärken

Unternehmen müssen einen Weg finden, um nach einem Ausfall rasch zum Normalbetrieb zurückzukehren. Die einfachste Methode ist die Betriebsverlagerung an einen anderen Standort.

Dies kann auf verschiedenen Wegen erreicht werden. Populär ist Distance Clustering. Die Technik beruht darauf, einen Failover Cluster auszuweiten und Cluster Nodes im alternativen Rechenzentrumsstandort einzurichten. Bei einem Ausfall werden die hochverfügbaren Workloads, die auf den Clustern laufen, automatisch per Failover im Zweitrechenzentrum weitergeführt.

Obwohl Distance Clustering eine ausgereifte Technologie ist, ist die Umsetzung schwierig. Die Anforderungen unterscheiden sich nicht nur unter den einzelnen Herstellern, sondern von einer Softwareversion zur nächsten. Noch drängender in der Planung ist es, die Entfernung und Latenz der Cluster einzubeziehen. Man sollte die Cluster-Knoten mit der Funktion „Dynamic Quorum“ des Windows-Server so einrichten, dass die Verbindung gewährleistet ist und dabei das Split-Brain-Syndrom vermeidet.

Eine andere Methode ist Storage-Replikation, die von Herstellern wie NetApp und Dell EMC angeboten wird. Replikation kann aber nicht nur mit Storage Appliances erreicht werden.

Auch die Hypervisor von Microsoft und VMware beinhalten hardwareunabhängige Replikation. Damit können virtuelle Maschinen in die Cloud oder ein anderes Rechenzentrum repliziert werden.

Eine weitere Schutzmethode ist Erasure Coding. Sie funktioniert ähnlich wie Array Parity, nur werden dabei Datensplitter über verschiedene Rechenzentren oder Clouds verteilt. Dies hat zwei wichtige Vorteile: Erstens kann man so zahlreiche Datenkopien an unterschiedlichen Standorten speichern. Die Administratoren können festlegen, wie viele redundante Kopien nötig sind.

Der zweite Vorteil besteht darin, dass vertrauliche Daten geschützt bleiben. Wenn die Public Cloud als Speicher genutzt wird, kann Erasure Coding die Daten so strukturieren, dass kein einzelner Provider eine vollständige Kopie besitzt. Die Datensplitter werden auf verschiedene Clouds verteilt und die Redundanz gewährleistet, dass die Daten weiter genutzt werden können, wenn ein Provider ausfällt.

Ständiges Backup und sofortige Wiederherstellung

Backup und Recovery bleiben ein wichtiger Bestandteil der Sicherungsstrategie, auch wenn sich in den letzten Jahren der Fokus hin zu Replikation und ständiger Verfügbarkeit verschoben hat. Obwohl Replikation redundante Kopien anlegt, besteht doch der Bedarf nach Recovery zu einem bestimmten Zeitpunkt. Wenn zum Beispiel Ransomware Daten im primären Rechenzentrum verschlüsselt, würden alle verseuchten Daten schnell auf alle redundanten Kopien repliziert. Die einzig praktikable Methode zur Wiederherstellung besteht darin, auf Recovery-Daten zurückzugreifen, die vor dem Angriff erstellt wurden.

Backup und Recovery gibt es schon seit Jahrzehnten, aber heute sind ständige Data Protection und sofortige Wiederherstellung gefragt. Für ständige Data Protection werden Veränderungen an Blöcken verfolgt. Statt eines monolithischen Backups nach Feierabend erfolgt ein immerwährendes Backup, sei es synchron oder asynchron.    

Die sofortige Wiederherstellung erlaubt es, virtuelle Maschinen (VM) in einem Augenzwinkern wiederherzustellen, ohne auf die traditionelle Recovery zu warten. Der Gedanke dahinter ist, dass die meisten Firmen mittlerweile stark auf Virtualisierung setzen und komplette VM-Kopien im Backup-Ziel vorhanden sind. Bei einer Recovery kann auf diese zu einem bestimmten Zeitpunkt erstellten VM-Kopien zurückgegriffen werden. Das bedeutet den sofortigen Datenzugriff, während die traditionelle vollständige Recovery im Hintergrund läuft.      

Um die Integrität der Backups zu bewahren, werden alle Schreiboperationen, die auf einer VM während des Backups ablaufen, auf eine dedizierte virtuelle Festplatte umgeleitet. Diese ist normalerweise eine Child Virtual Hard Disk, die einem Snapshot der primären VM virtuellen Festplatte zugeordnet ist. Dies verhindert, dass die Backup-Kopie der VM modifiziert wird.

Wenn die vollständige Wiederherstellung abgeschlossen ist, werden die Schreiboperationen seit Beginn der sofortigen Wiederherstellung in der virtuellen Festplatte verschmolzen. Danach werden die Nutzeranfragen wieder von der Backup-VM zur primären VM umgeleitet.

Eine sofortige Wiederherstellung bieten Hersteller wie Veritas, Commvault, Veeam und andere.

Funktionen im Windows Server 2016

In einer Liste mit neuen Funktionen wird es oft übersehen, aber Microsoft hat den Windows Server 2016 darauf ausgerichtet, Storage widerstandsfähiger zu machen. Mit Ausnahme von hyperkonvergenten Systemen werden VMs selten auf lokaler Storage gespeichert. Dabei kann die Verbindung zu einem externen Storage Array zu einem Point of Failure werden.

Im Windows Server 2012 R2 oder früheren Versionen ist eine Hyper-V VM noch abgestürzt, wenn es bei einem Schreib- oder Lesevorgang einen Fehler gab.

Dagegen gibt es nun im Windows Server 2016 einen Schutzmechanismus gegen kurzfristiges Storage-Versagen. Wenn eine VM plötzlich eine virtuelle Festplatte nicht mehr lesen oder beschreiben kann, wird der Hypervisor eine ähnliche Funktion wie bei einem Snapshot ausführen. Der Hypervisor friert die VM ein und erhält damit den intakten Zustand.

Wenn dann das Storage-System wieder verfügbar ist, wird die VM aufgetaut und es kann damit weitergearbeitet werden, als wäre nichts geschehen. Im gefrorenen Zustand kann zwar auf die VM vom Anwender nicht zugegriffen werden, aber der wird den kurzfristigen Ausfall wahrscheinlich gar nicht bemerken.  

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Mai 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Disaster Recovery

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close