bakhtiarzein - Fotolia

Copy Data Management (CDM) ist reif und kann Storage-Probleme lösen

Copy Data Management (CDM) ist eine neue Technologie, die zahlreiche Möglichkeiten bieten. Wir geben einen Überblick über Funktionen und Anbieter.

Dieser Artikel behandelt

Daten-Deduplizierung

CDM-Systeme (Copy Data Management) bieten Optionen, um Storage-Platz zu sparen und die Leistung zu verbessern, indem sie überflüssige Kopien verhindern.

Daten und Informationen sind wichtig und täglich werden davon Kopien für verschiedene Verwendungszwecke angefertigt. Allerdings erfordert das Speichern dieser Kopien Platz und Geld.

Copy Data Management ist eine Methode, um den verschwenderischen Umgang mit Kopien zu begrenzen. Es ist eine relativ neue Technologie, aber es gibt bereits eine Reihe von Herstellern, die entsprechende Angebote im Portfolio haben.

Kopien gefragt

Daten werden in IT-Abteilungen für verschiedene Zwecke vervielfältigt. Die meisten Kopien spiegeln den Zustand zu einer bestimmten Zeit wider. Eine Ausnahme ist Disaster Recovery, wo Kopien an einen anderen Standort ausgelagert werden. Snapshots werden stündlich oder täglich angefertigt, um eine schnelle Wiederherstellung von Datenverlusten zu ermöglichen.

Kopien können auch in Testumgebungen oder bei der Anwendungsentwicklung zum Einsatz kommen. So kann man Szenarien austesten, ohne die eigentliche Produktivumgebung zu beeinträchtigen.

In den Zeiten vor der Virtualisierung nutzten Anwendungen spezialisierte Entwicklungs- und Nutzerakzeptanzsysteme (User Acceptance Training (UAT)). Die Entwicklungsumgebung prüfte die Programmierung und das UAT die Systemauslastung.

Mit Virtualisierung und Containern hat sich der Prozess der Anwendungsentwicklung gewandelt und ist schneller geworden. Heute verlangen Entwickler mehr Kopien der Testdaten, die zudem ständig und gleichzeitig verfügbar sein sollten. Oft werden diese Kopien nur wenige Stunden oder Tage benötigt.

Die Verwaltung dieser vielfältigen Kopien wird leicht zum Albtraum. Jede Kopie muss einem bestimmten Eigner zugewiesen werden und diesem zu einem bestimmten Zeitpunkt überlassen werden. Bei Backups gibt es dafür festgelegt Prozesse und diese werden typischerweise in einem definierten Zeitrahmen abgearbeitet.

Aber für Test und Entwicklung gilt dies nicht und neue Prozesse sind erforderlich. Hier ist eine Einsatzchance für Copy Data Management.      

Massive Duplizierung

Im Zeitalter der Virtualisierung werden alle bereits erwähnten Sekundäreinsatzzwecke durch Images virtueller Maschinen (VM) abgeleitet. Moderne Hypervisoren (HV) stellen Oberflächen und Schnittstellen bereit, um VM-Daten auf Block-Level zu extrahieren. Dadurch werden Backup-Prozesse stark vereinfacht.

HVs haben typischerweise auch Funktionen für Snapshots, allerdings gibt es dabei auch Nachteile. Die Aufbewahrung und – noch wichtiger – die Konsolidierung zahlreicher Snapshots zu einem späteren Zeitpunkt können die Anwendungsleistung virtueller Maschinen negativ beeinflussen. Hier gibt es einen weiteren Ansatzpunkt, wo CDM hilfreich sein kann.

Konsolidierte Einsparungen

Viele interne IT-Prozesse und Systeme nutzen Kopien für verschiedene Zwecke. In virtuellen Umgebungen verwenden die meisten Prozesse zur Datenextraktionen über Schnittstellen dieselbe oder ähnliche Oberfläche. Es ist sinnvoll, diese Funktionen in eine einzige Plattform zu konsolidieren.

Diese Konsolidierung hat folgende Vorteile:

  1. Kosteneinsparungen: Daten für verschiedene Einsatzzwecke (Archiv, Backup, Snapshot, Test) können auf einer einzigen Hardwareplattform gesammelt werden. Das spart Geld für Energie, Kühlung, Metall und Platz.
  2. Weniger operative Einschränkungen: Operative Aufgaben auf eine andere Plattform auszulagern, reduziert das Risiko, dass sie Auswirkungen auf die Hauptplattform haben. Snapshot Management wird überflüssig und die dadurch bedingte Leistungsreduzierung fällt weg. Datenwiederherstellung kann auf der sekundären Plattform verwaltet werden statt auf dem Produktionssystem. Das verringert das Risiko, versehentlich das Produktionssystem zu überschreiben.
  3. Mehr Sicherheit: Sekundäre Daten auf einer zweiten Plattform sind für Sicherheit leichter zu segmentieren und Zugriffsrechte zuzuweisen. Teams, die egal für welchen Zweck Zugriff auf Produktions-Images benötigen, können aus der Sicherheitsperspektive isoliert werden und getrennt geprüft werden.

CDM ist marktreif

Warum ist jetzt der Zeitpunkt gekommen, dass CDM marktfähig geworden ist und implementiert werden kann? Es gibt einige neue Technologien, die CDM attraktiv machen.          

Die erste dieser Innovationen ist Deduplizierung der Daten. Das ist der Prozess, überflüssige Kopien zu eliminieren. Eine einzige physische Kopie wird aufbewahrt und mit Metadaten und Pointern versehen, die das Verhältnis von physischen zu logischen Daten aufzeigen.

Sekundäre Daten sind hochredundant: Zahlreiche Kopien werden von denselben virtuellen Maschinen und den zugrundeliegenden Images angefertigt. Dadurch wird der Spareffekt durch Deduplizierung noch erhöht. Das gilt noch stärker, wenn Backups und Daten-Images einbezogen werden.

Die höhere Effektivität moderner Hardware, meistens x86-Systeme, bedeutet, dass Deduplizierung, Komprimierung oder Zero-Detect durchgeführt werden können, ohne dass spezielle Systeme dafür benötigt werden. Die ermöglicht es CDM, sich auf den Mehrwert durch Software zu fokussieren, selbst wenn es als Software/Hardware-Kombination verkauft wird.

Zudem bietet Flash Hochleistungszugriff auf Zufallsdaten (die durch Deduplizierung erzeugt werden). Die Geräte werden leistungsfähiger, während die Preise sinken.

Trennung der Hardware

CDM-Systeme werden normalerweise als separate Plattformen implementiert. Dies ist hilfreich, um der Backup-Regel gerecht zu werden, dass Daten auf Systemen gespeichert werden sollten, die von den Produktionssystemen physisch getrennt sind. Dies isoliert die primären und sekundären Daten voneinander. Die Daten können an einen anderen Standort gebracht werden, wenn erforderlich.

Auf der sekundären Plattform werden die Daten auch anders behandelt als auf der primären. Auf der Produktionsplattform geht es darum, den Anwendungen möglichst schnelle I/O zu gewähren. Snapshots werden selten durchgeführt. Bei CDM ändern sich die Daten ständig und Anwendungs-Updates erfolgen laufend. Auf historische Daten zuzugreifen ist Teil der normalen Operationen.

Die Art und Weise, wie auf Daten in CDM-Systemen zugegriffen wird und diese gespeichert werden, muss so strukturiert sein, dass das System nicht ausgebremst wird, wenn Daten abgerufen werden, die fünf Minuten oder fünf Monate alt sind. Die Daten sind deshalb intern anderes strukturiert als die Produktionsdaten. Diese Datenstruktur und die damit verbundenen Metadaten werden für fortgeschrittene Funktionen wie Suche benötigt, die einen zusätzlichen Mehrwert für die CDM-Plattform als Backup- und Archivsystem bringen.

Erweiterung in die Cloud

CDM kann von der Flexibilität der Public Cloud profitieren. Amazon Web Services, Microsoft Azure und Google Cloud Platform bieten Storage und Compute-Ressourcen, monatlich berechnet nach Verbrauch. CAP-EX Ausgaben werden dadurch zu OP-EX.

CDM-Systeme, die in die Cloud erweitert werden, ermöglichen es Unternehmen, ältere Daten auszulagern, die nur selten benötigt werden. Dadurch kann CDM ein effektives Archiv für eine Anwendung werden. Deswegen sind Suchfunktionen wichtig.

Wenn CDM für die Cloud ausgereifter wird, ist es vorstellbar, dass komplette Instanzen für Test- und Entwicklungszwecke in die Wolken verlagert werden. Das könnte zu erheblichen Einsparungen führen.

CDM-Produkte führender Hersteller

Werfen wir nun einen auf die verfügbaren CDM-Systeme. Wir haben dazu ausführliche Recherchen durchgeführt und Kaufkriterien abgewogen.

Rubrik und Cohesity bieten kombinierte HW/SW-Systeme. Beide ermöglichen Scale-Out und Cloud-Anbindung.

Actifio und Druva vermarkten reine Softwarelösungen, die Daten aus bestehenden Hardwareplattformen extrahiert, einschließlich virtueller Serverumgebungen und traditionellen Anwendungen.

Catalogic Software nutzt die Snapshot-Fähigkeiten der zugrundeliegenden Storage-Plattform (EMC, IBM und NetApp).

Der Hitachi Data Instance Director verwaltet Snapshots und Image-Kopien auf der Hitachi Data Systems Enterprise Virtual Storage Platform und der Hitachi NAS Platform. Unterstützt werden Anwendungen wie Oracle, Exchange, SQL Server und SAP HANA.

Dell EMC Enterprise Copy Data Management verwaltet Daten von Dell EMC VMAX, XtremIO und Data Domain.

Delphix Software konzentriert sich auf Copy-Management-Probleme für Datenbanken.

Commvault bietet CDM-Funktionen in seiner umfassenden Daten-Management-Plattform.   

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Welche neuen Fortschritte kann Datendeduplizierung bei Backups erreichen?

Was sind die Nachteile von Copy Data Management und wie kann man sie vermeiden?

Snapshots und Copy Data Management können die Gesamtbetriebskosten von Backups senken

Welche Rolle Datenredundanz beim Copy Data Management spielt

 

 
Artikel wurde zuletzt im Mai 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Daten-Deduplizierung und -Reduzierung

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close