Cloud-Backup: Mehr Freiheit für die IT

Backup-Strategien lassen sich mittlerweile mit Cloudkonzepten erweitern. Mit einer vernünftigen Planung erhält man so eine sinnvolle Datensicherung.

Business-Software kommt heute in allen Geschäftsbereichen und Branchen zum Einsatz. Dies hat zu einer hohen Abhängigkeit der Unternehmen von ihren IT-Systemen und ihren operativen Daten geführt. Aus Sicht der CIOs sind damit auch die Herausforderungen rund um das Datenmanagement gestiegen. Die Cloud bietet Lösungen, um die neuen Anforderungen an die Backup-Prozesse effizient zu erfüllen.

Das Backup mit seinen standardisierten und wiederkehrenden Tätigkeiten zählt zu den IT-Leistungen, die ein hohes Einsparpotenzial versprechen. So tragen die Aufgaben rund um die Datensicherung nicht zur Wertschöpfung bei und rauben hochbezahlten IT-Spezialisten ihre kostbare Zeit. 

Peter Wüst,
Director Cloud & Alliances
CEMA, NetApp

Außerdem verbrauchen die Backup-Systeme kostbare Fläche im Rechenzentrum und verursachen zusätzliche Kosten, beispielsweise für Kühlung und Energiebedarf. Höchste Zeit also, den vorhandenen Status Quo zu überdenken und sich die Cloud ins Rechenzentrum zu holen.

Werden Daten komplett oder teilweise in die Cloud ausgelagert, spart dies die Investitionskosten für zusätzliche Storage-Kapazitäten im Backup-Umfeld. Zudem ist der Cloudspeicher sehr flexibel und nach Bedarf buchbar. Auch gelingt der Start sehr einfach, denn bei der Nutzung von Clouddiensten ist lediglich eine leistungsfähige Internetanbindung notwendig. Der konkrete Bandbreitenbedarf ergibt sich aus den zu übertragenden Datenmengen und dem zur Verfügung stehenden Zeitfenster für die Datenübertragung.

Die Nutzung der Cloud erhöht auch die Sicherheit im Katastrophenfall. Wird zusätzlich zu einem Backup im eigenen Rechenzentrum die Cloud als Speicher genutzt, lassen sich nach einem Brand oder Wasserschaden die gesicherten Backup-Daten schnell wieder einspielen. Daher sollten die Themen Backup und Disaster Recovery (DR) immer gemeinsam betrachtet werden, denn es gibt heute zahlreiche Lösungen, die beide Funktionen in nur einem Produkt kombinieren.

Den richtigen Anbieter finden

Unternehmen haben höchst individuelle Anforderungen an Sicherheit, Datenmengen und verfügbare Backup-Zeiten. Zudem möchten IT-Verantwortliche trotz Cloudintegration ihre bereits getätigten Investitionen in Backup-Software und Storage-Systeme sichern. Auf der Suche nach einem geeigneten Backup-Service aus der Cloud zeigt sich schnell, dass es zwar sehr viele Dienstleister hierfür gibt, aber so richtig vergleichbar sind die Angebote nicht. 

Das liegt unter anderem daran, dass es keine übergreifenden und vergleichbaren Kriterien gibt, die den Leistungsumfang beschreiben. Genau zu diesem Punkt hat sich zum Beispiel der Speicheranbieter NetApp konkrete Gedanken gemacht und das Angebot „Backup-as-a-Service“ mit einer Art Gütesiegel versehen. Damit sind die Leistungen, die ausschließlich über autorisierte Service Provider erbracht werden, einem Qualitätsstandard unterworfen.

Wer generell noch auf der Suche nach einem Beratungs- und Implementierungspartner ist, sollte sich von diesem zunächst Referenzprojekte zeigen lassen, die dem eigenen Cloudprojekt möglichst nahe kommen. Ein weiterer wichtiger Punkt: Der Cloudanbieter sollte ein Rechenzentrum in Deutschland betreiben und durch Auswahl des richtigen Providers sicherstellen, dass die Daten Deutschland nicht verlassen.

Mit der Data Fabric in die Cloud

Da ein Neustart der gesamten IT auf der grünen Wiese nicht realistisch ist, werden in der Praxis die neuen Cloudressourcen in eine bestehende Backup-Infrastruktur integriert. Das führt schnell dazu, dass hybride Clouds mit isolierten und inkompatiblen Datensilos entstehen. Zudem unterscheidet sich die Art und Weise, wie Cloudanbieter die Daten ihrer Kunden verwalten, erheblich. Dadurch wird es Kunden erschwert, Daten von einer Cloud in eine andere zu bekommen – oder auch zurück in das eigene Rechenzentrum zu holen. 

Der Cloud-anbieter sollte ein Rechen-zentrum in Deutschland betreiben und durch Auswahl des richtigen Providers sicherstellen, dass die Daten Deutschland nicht verlassen.

In der Folge tun sich Organisationen daher häufig schwer, ihre hybride Cloud optimal in ihre IT-Strategie zu integrieren. Die Daten entwickeln dann eine Art Schwerkraft: Die sogenannte Data Gravity führt dazu, dass sich Daten an eine bestehende Infrastruktur klammern. Wer eine Backup-Umgebung über verschiedene Standorte und Storage-Tiers hinweg betreibt, wird das beschriebene Problem aus der Praxis sicherlich kennen.

Vor diesem Hintergrund entwickelte NetApp das Konzept der Data Fabric. Mit Technologien wie dem Speicherbetriebssystem Data ONTAP behalten Unternehmen bei Nutzung der Public Cloud auch weiterhin die volle Datenkontrolle. IT-Verantwortliche können so ihre Daten unabhängig von Speicherorten wie On-Premise, bei Service Providern oder in der Public Cloud jederzeit frei verschieben und transparent verwalten.

Durch die damit erreichte Daten-Virtualisierung ist es erstmals praktikabel und effizient möglich, Daten zwischen Cloudressourcen und Service-Anbietern in beide Richtungen zu verschieben. So müssen sich Unternehmen nicht auf einen Cloudanbieter festlegen und können beispielsweise Ressourcen aus AWS, Azure oder SoftLayer beliebig nutzen und kombinieren. Mit der Lösung Clustered Data ONTAP ist die Firma zudem in der Lage, der den Kunden eine homogene Plattform zur Verfügung stellt, um Daten und Workloads über alle Ebenen einer Storage-Architektur zu verwalten – inklusive einer Integration von Cloud-Ressourcen.

Viele Wege führen in die Cloud

Hat ein Unternehmen bereits Storage-Systeme des Speicherherstellers im Einsatz, werden für die Cloudintegration keine zusätzlichen Lösungen benötigt. In der Praxis steht ein Storage-System im eigenen Rechenzentrum und ein weiteres bei einem IT-Dienstleister, der Backup-as-a-Service (Baas) von NetApp anbietet. Das Backup funktioniert dann als Incremental Forever, es werden also fortlaufend die Nutzdaten von Disk nach Disk beziehungsweise in die Cloud repliziert. Außerdem wird bei diesem Ansatz keine zusätzliche Backup-Software benötigt.

Wer keine Speichersysteme des Herstellers nutzt, kann die Lösung NetApp AltaVault verwenden. Die als physische oder virtuelle Appliance angebotene Lösung arbeitet als eine Art Datenstaubsauger. Das System zieht für das Backup vorgesehene operative Daten aus beliebigen Anwendungen, Datenbanken oder Speicher-Silos zusammen. Diese werden anschließend dedupliziert, verschlüsselt und über BaaS-Provider oder Colocation-Anbieter in beliebigen Cloud-Ressourcen abgelegt. Die Funktionen für diese Prozesse liefern bestehende Backup-Anwendungen, da AltaVault mit beliebiger Backup-Software zusammenarbeitet.

Das spannende an beiden Ansätzen ist, dass die letzten Kopien der Daten noch bei dem Kunden vor Ort verbleiben – entweder im On-Premise-Dateisystem oder in AltaVault. Das ist bei Disaster Recovery oder sonstigen Restore-Fällen besonders relevant, da so die Datenwiederherstellung sehr schnell gelingt, während bei vielen anderen Cloud-Backup-Lösungen das Restore zeitaufwändig über die Cloud erfolgt.

Läuft bereits im Praxisbetrieb

Die beschriebenen Methoden kommen heute bereits in der Praxis zum Einsatz. So nutzt eines der größten deutschen Industrieunternehmen das Konzept der Data Fabric, um in einer heterogenen IT-Umgebung die Backup-Prozesse durch Cloudunterstützung zu optimieren. Gleichzeitig kann die IT-Abteilung die vorhandene IBM Tivoli Software für das Datenmanagement weiterhin nutzen. Insgesamt wurden so die Datensicherheit erhöht, die Backup-Prozesse weiter automatisiert, die IT-Administration vereinfacht und letztlich auch die Kosten für den IT-Betrieb reduziert.

Wann lohnt sich welche Cloud?

Wo IT-Leistung noch erhebliche Wertschöpfung im Kerngeschäft erbringt, wird On-Premise auch weiterhin erste Wahl bleiben. Hoch standarisierte Services jedoch, wie etwa Collaboration, Backup und Infrastruktur, werden hingegen immer mehr in der Public Cloud ausgeführt. Das Rechenzentrum wird daher eine Koexistenz verschiedener Betreibermodelle erleben und damit auch den weiteren Einzug von Cloudtechnologien. CIOs sollten auf die Entwicklung vorbereitet sein, da sie in Zukunft verstärkt als Orchestrator von IT-Services tätig sind, die von externen Dienstleistern erbracht werden.

Über den Autor: 
Peter Wüst ist Director Cloud & Alliances CEMA bei NetApp für die Regionen Deutschland, Österreich, Schweiz, Osteuropa, Russland und die GUS sowie den Mittleren Osten und Afrika. Er verantwortet in dieser Position die strategischen Allianzen mit Herstellern und globalen Systemintegratoren sowie die Cloud- und Service Provider-Strategie.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im August 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public Cloud

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close