copyright Christos Georghiou www

Wir helfen Ihnen bei der Auswahl eines Copy-Data-Management-Systems

Die Auswahl eines Copy-Data-Management-Systems erfordert eine sorgfältige Analyse der individuellen Anforderungen. Wir helfen bei der Entscheidung.

Immer mehr IT-Abteilungen sehen eine Copy-Data-Management-Lösung (CDM) als unentbehrliches Werkzeug an. CDM dient der Zusammenführung und dem Management von Sekundärdaten wie Backups, Archiven oder Daten aus Test- und Entwicklungsumgebungen und hilft generell die Storage-Kosten zu senken.

Doch wie bei vielen Systemen passt nicht jede Lösung auf jeden Anwendungsfall. Deshalb stehen am Anfang eine gründliche Anforderungsanalyse und der Abgleich der verfügbaren Produkte an den sich ergebenden Anforderungen. Dabei stellt sich die Frage, welche Kriterien Unternehmen bei der Auswahl eines solchen Systems beachten sollten.

Bereitstellungsmodelle

Ein wichtiges Kriterium ist das Bereitstellungsmodell. Prinzipiell gibt es aktuelle CDM-Systeme in zwei Formen: Sie kommen entweder als Hardware-Appliance mit integrierter Software oder ausschließlich als Software. Im letzteren Fall besorgt sich der Kunde die von ihm gewünschte Hardware und installiert die Software darauf.

Natürlich haben beide Ansätze Vor- und Nachteile. Die Vorteile der Appliance-Lösung sind:

  • vorgetestete und –validierte Hardware: Der Anbieter hat geprüft und validiert, dass die gelieferte Hardwarekonfiguration effizient mit der Copy-Data-Storage-Software zusammenarbeitet. Dazu gehören optimale Leistung und die Beseitigung sämtlicher Kompatibilitätsprobleme zwischen Software, Hardwarekomponenten und Firmware.
  • nur ein Ansprechpartner bei Supportanfragen: Der Anbieter garantiert den Kunden einen einheitlichen Ansprechpartner für die gesamte Hard- und Softwarelösung. Bei Problemen oder Fehlern kann der Hersteller schnell die nötigen Tests durchführen und wird das Problem (hoffentlich) lösen, weil er in seinem Labor schon über die nötigen Testeinrichtungen verfügt.
  • vorhersagbare Leistung: Der Hersteller hat Tests durchgeführt und kann anhand von Daten belegen, was seine Hardware leistet. Solche Daten sind wichtig für die Entwicklung und Skalierung von Copy-Data-Management-Software.

Doch der Appliance-Ansatz hat auch Nachteile. So kann die Gesamtlösung teurer sein als wenn der Kunde Hard- und Software getrennt einkauft. Größere IT-Abteilungen, deren Kaufkraft genauso groß oder größer ist wie die des Anbieters von Copy-Data-Storage-Lösungen erhalten beim Hardwarekauf unter Umständen günstigere Konditionen als er selbst.

Wer Hardware direkt kauft, kann zudem unterschiedliche Hardwarekonfigurationen und aktuelle Technologie (zum Beispiel schnellere Prozessoren) einsetzen, noch bevor die Anbieter von Copy-Data-Storage-Lösungen sie selbst in ihr Angebot inkorporiert haben. Mit selbstbeschaffter Hardware können IT-Organisationen auch Technologie verwenden, die schon den Betriebsstandards der Organisation entspricht. Wird neuartige Hardware beschafft, sind auch neue Support- und Wartungsprozesse erforderlich.

Funktionen von Copy-Data-Management-Lösungen

Was sind die wichtigsten Funktionen von Copy-Data-Management-Systemen? Sieben sind besonders wichtig – im Folgenden werden ihre Aufgabe und ihr Einfluss auf die Entscheidung für ein Copy-Data-Management-System beschrieben.

Skalierbarkeit. Gemeint ist damit die Datenmenge, die ein Produkt speichern kann, und seine bedarfsgesteuerte Erweiterbarkeit. Hierbei sind mehrere Aspekte zu berücksichtigen. So kann die logische Kapazität eines entsprechenden Produkts an sich hinsichtlich des Storages begrenzt sein und sich auf Speicherobjekte (virtuelle Maschinen) oder Daten (Dateien) beziehen. Möglicherweise kann auch nur eine bestimmte Menge Kopien jedes gespeicherten Objekts gezogen werden (etwa nur soundsoviel Kopien spezifischer Daten).

Die physische Kapazität ist unter Umständen auf die Größe einer Appliance und deren Erweiterungsfähigkeit durch weitere Appliances oder hinzugefügte interne Storage-Kapazitäten begrenzt. Arbeiten Lösungen mit der Public Cloud zusammen, ist die physische Kapazität zumindest virtuell unbegrenzt, obwohl die logische Kapazität begrenzt sein kann.

Leistung. Der Begriff Leistung bezieht sich hier auf mehrere Aspekte: bezüglich der Schnittstelle, über die Daten ins System fließen (entweder aus dem Backup oder aus anderen Quellen) wird seine Leistung in der Regel als Durchsatzrate in Mega- oder Gigabytes pro Sekunde (MBps, GBps) angegeben. Dieser Leistungswert kann auch auf die Skalierbarkeit bezogen werden: Skalierbar ist die Leistung, wenn man den Durchsatz des Copy-Data-Storage-Produkts durch Hinzufügen weiterer Knoten erhöhen kann.

Ein zweiter Aspekt des Themas Leistung ist, ob das Produkt konkurrierende oder Sekundärzugriffe erlaubt, beispielsweise das Hochfahren virtueller Maschinen direkt auf der Appliance. Die sofortige Wiederherstellungsmöglichkeit ist sehr nützlich, sollte aber den Durchsatz von Backup- und anderen Daten nicht negativ beeinflussen.

Datenhaltedauer (Retention). Dieser Wert beschreibt, wie lange die Plattform individuelle Backups oder andere Daten hält. Am besten sollten Daten regelgesteuert unbegrenzt auf der Plattform bleiben können. Die Haltedauer sollte keinen Einfluss darauf haben, wie eine individuelle Lösung aufgebaut ist.

Regeln für die Haltedauer legen fest, wie lange Daten auf dem Copy-Data-Management-System verbleiben. Der Regelgenerator sollte ausreichend komplexe Regeln ermöglichen, so dass sich unterschiedliche Retentionsszenarien je nach Datenquelle und identifizierter oder eingespielter Datenart definieren lassen.

Verwaltet ein Copy-Data-Management-System einfach nur die Datenkopien auf einer Storage-Plattform, bildet offensichtlich diese darunterliegende Plattform den begrenzenden Faktor und kann also die Produktauswahl beeinflussen.

Integration. Hier geht es um die Frage, wie das Produkt mit den Datenquellen integriert wird. Am wichtigsten ist dabei, wie die entsprechende Lösung mit den verwendeten Hypervisor-Plattformen und Backup-Schnittstellen bei der Extraktion von Daten zusammenarbeitet. Diese Art der Integration sollte Datenintegrität garantieren, zum Beispiel durch Zusammenarbeit mit Microsofts Volume-Shadow-Copy-Service für die Integrität von Snapshots.

Die Integration sollte auch aus der Perspektive der Storage-Plattform betrachtet werden. Wichtige Themen sind hier das Management von Daten-Snapshots und welche Daten auf dem Storage-System das Copy-Data-Management-Produkt nicht extrahieren kann.

Sicherheit. Liegen alle wichtigen Daten an einer Stelle, wird Sicherheit zum überragenden Thema. In erster Linie müssen die Daten auf der Plattform – Appliance oder nicht – sicher sein. Auf dem Copy-Data-Management-System lagernde Daten sollten genau wie Daten während des Transports verschlüsselt sein. Das gilt auch für den Weg in die und aus der Public Cloud (zur Cloud-Unterstützung siehe unten).

Greift das Backup-System auf kopierte Daten zu, sind rollenbasierte Zugriffsregeln und Auditierungen für den Zugriff auf diese Daten unverzichtbar. Der rollenbasierte Zugriff für die Datenwiederherstellung stellt sicher, dass nur die Besitzer der Primärdaten bestimmen können, wer die Daten wiederherstellen darf.

Da Copy-Data-Management-Systeme die Funktionen zur Wiederherstellung von Daten und virtuellen Maschinen von außen zugreifbar machen können, müssen auch sie korrekt durch rollenbasierende Zugriffskontrollen und Auditierung gesichert werden.

Cloud-Unterstützung. Bei großen Datenvolumina ist es nicht kosteneffizient, alles auf eine lokale Appliance zu schreiben. IT-Organisationen, die große Datenvolumina handhaben, können viel sparen, wenn sie Daten in die Public Cloud verlagern. Allerding muss man dabei einiges beachten.

Wer die Cloud als einzigen Datenspeicher nutzt, spart nicht viel, es sei denn, man kann die Daten direkt in der Cloud nutzen, statt über die Appliance auf sie zuzugreifen. Dafür ist der Zugriff auf die Metadaten mit Hilfe Cloud-basierender Mechanismen erforderlich, die die gespeicherten Daten beschreiben wie bei einer virtuellen Appliance.

Automatisierung. Mit ihr kann man Skripte für Funktionen des Copy Data Management Systems schreiben, Funktionen auslagern oder integrieren. In der letzten Zeit wurde viel über Storage-Produkte mit APIs publiziert, aber auch Befehlszeilen ermöglichen Automatisierung.

Sie erleichtert die Skalierung und Integration mit anderen Orchestrierungslösungen. Anwender können so ihre Daten selbst verwalten, wiederherstellen oder zurückspielen, ohne dass sie dafür die Unterstützung eines Administrators brauchen. Das vereinfacht das Betriebsmodell eines Copy-Data-Management-Systems erheblich, weil das Backup- oder Storage-Team von Support-Pflichten entlastet wird.

Zusätzliche Auswahlkriterien für Copy-Data-Management-Systeme

Bei der Auswahl der richtigen Copy-Data-Management-Lösung sollte auch deren Effizienz eine wichtige Rolle spielen. Je größer die Menge ähnlicher Daten, desto stärker beeinflusst die Deduplizierungsfunktion das Kosten-Management.

Wichtig sind zudem der Datenexport und das Risiko der ungewollten Festlegung auf die Produkte eines bestimmten Herstellers (Lock-in). Obwohl jede Plattform ihre Käufer bis zu einem gewissen Grad an sich bindet, sollte man schon vor dem Kauf darüber nachdenken, was es bedeutet, wenn die Daten später auf eine andere Plattform verschoben werden sollen.

Insgesamt kann man nicht genug betonen: Wer seine eigenen Anforderungen an das gesuchte Produkt genau verstanden hat und weiß, welche im speziellen Fall besonders wichtig sind, kann diese Anforderungen leichter mit den Funktionen abgleichen, die die am Markt verfügbaren Produkte bieten. Die obige Auflistung an Kriterien ist nicht priorisiert – eine individuelle Priorisierung erleichtert die Auswahl aber ungemein.

Einige Anbieter in der Übersicht

Strongbox Data Solutions bietet mit Stronglink eine Lösung für kognitives Data Management. Die gesamte Datenumgebung kann verwaltet werden. Support für bestehende Workflows ist gegeben. Offene Architekturen erlauben Orchestrierung, Klassifikation und Lifecycle Management. Eine selbstheilende und parallele Architektur hält den IO-Durchsatz aufrecht und ist intelligenter als ein bloßer Cache Layer. Metadaten werden entdeckt und indiziert. Eine globale Suche erfasst alle Storage Silos. Datenmigration kann unterbrechungsfrei über verschiedene Plattformen erfolgen. Der Hersteller ist mit einem Büro in Schwäbisch Gmünd vertreten.

Komprise fokussiert Daten-Management in der Cloud. Die Lösung installiert eine virtuelle Maschine in Kundenumgebung, es gibt aber keine Agenten und die Daten werden nicht beeinflusst. Die Komprise-Lösung ist sozusagen ein Hausmeister für Daten-Management mit Analyse und Policies und interaktiven Vorhersagen. Kalte Daten werden auf günstige Speicher bewegt und Backup-Fenster verringert. Die Lösung kann Daten bewegen und replizieren. Komprise verspricht eine Reduzierung der Storage-Kosten um 70 Prozent.

ProphetStor will Google Maps für Storage und Datenservices werden. Es soll eine Plattform für die Zukunft sein, die Orchestrierung und Federation erlaubt. Die ProphetStor Data Services sollen Intelligenz in softwaredefinierte Rechenzentrum (SDS) bringen. Walter Curti, CTO von ProphetStor erklärt: „Wir können VMware vSAN ergänzen. Open Stack ist der Beweis, dass SDS geht, aber es ist kompliziert. Wir zeigen einen einfacheren Weg. Storage-Virtualisierung reicht nicht, wir wollen darüber hinaus und Dinge neu definieren.“ SDS setzt sich durch, die Zeit proprietärer Hardware ist vorbei, es wird aber nichts weggeworfen. Es geht um Management, Copy Data Management und Orchestrierung. Katalysator ist der Bedarf nach günstigem Storage (etwa AWS). Schnittstellen sind entscheidend. Die ProphetStor Federator Smart Data Fabric soll umfassende Lebenszyklusverwaltung ermöglichen.

Primary Data will mit der Metadaten-Engine Metasphere für Sichtbarkeit, Intelligenz und Automation sorgen. Sie nutzt Maschinenlernen und sorgt für Beweglichkeit, Anwendungen werden intelligenter. Ziel ist es, Verbindung zu schaffen über das gesamte Spektrum. Das soll erreicht werden durch Intelligenz der Metadaten, gespiegelte Schreibvorgänge und Memory Maps. Die Lösung baut auf offene Standardarchitektur mit nativem NFS 4.2 Client, der in RHEL 7.3 oder höher eingebaut ist. Es nutzt eine Scale-Out-Architektur und dynamische Infrastruktur.

Rubrik setzt auf Cloud Data Management. Aktuell hat der Hersteller Alta 4 vorgestellt, die neunte Version seiner Software. Sie unterstützt jetzt Hyper-V und Nutanix AHV, AWS, Azure, Oracle Datenbank und RMAN sowie Microsoft SQL. Chris Wahl Chief Technologist von Rubrik erklärt: „in heutigen Rechenzentren gibt es Herausforderungen, Backup muss designed werden. Unsere Vision ist es, alles in Software bringen.“ Rubrik bietet eine konvergierte Daten-Management-Plattform und macht Backup-Software überflüssig, indem deduplizierter Speicher, Katalog-Management und Datenorchestrierung in einer einzigen Scale-Out-Fabric kombiniert zur Verfügung stehen.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Welche neuen Fortschritte kann Datendeduplizierung bei Backups erreichen?

Was sind die Nachteile von Copy Data Management und wie kann man sie vermeiden?

Snapshots und Copy Data Management können die Gesamtbetriebskosten von Backups senken

Welche Rolle Datenredundanz beim Copy Data Management spielt

Artikel wurde zuletzt im Juli 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Backup-Tools

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close