Spezielle Speicher für virtuelle Maschinen

Virtuelle Maschinen verlangen eine andere Speicherarchitektur als die traditionellen SAN- und NAS-Umgebungen.

Hersteller bieten Speichersysteme an, die speziell für virtuelle Maschinen entwickelt wurden. Der Ansatz unterscheidet sich grundsätzlich von SAN oder NAS.

Extra angefertigter virtueller Server-Speicher verfügt über einige deutliche Unterschiede gegenüber SAN und NAS. Anstatt die bekannten Ansätze von RAID, LUNs und Volumes auf externes, geteiltes Storage Arrays zu benutzen, ist virtueller Server-Speicher vor allem durch angebundenes Direct Attached Storage (DAS) oder speziell gebaute Appliances gekennzeichnet. 

Bei den meisten Installationen dieser Art werden andere Methoden als RAID eingesetzt, um die Datenintegrität zu gewährleisten. Außerdem sorgt die Storage-Software für die Beziehungen zwischen dem Applikations-Server (einer virtuellen Maschine) und den dazugehörigen Daten. Diese neue Architektur kann in der Tat die Verfügbarkeit der Daten verbessern, während sie zugleich das Leben des Speicheradministrators vereinfacht. Das ist zumindest das, was VM-spezifische Speicherlösungen erreichen sollten.

Fünf Unterschiede: VM-Storage vs. traditionelles SAN/NAS

  1. RAID, LUNs oder Volumes sind nicht mehr erforderlich
  2. Applikations-Server sind mit den entsprechenden Daten verbunden, und nicht mit Volumes
  3. Keine Probleme mehr mit den benachbarten Applikationsdaten in Shared Volumes
  4. Performance nicht an die Platten-Umdrehungszahlen gebunden
  5. Datenintegrität und Recovery allgemein erleichtert durch verteilte Datenmechanismen

Sicher kann jedes moderne Speichersystem so konfiguriert werden, dass es für virtuelle Maschinen tauglich ist. Das führt aber auch zu etwas verwirrenden Botschaften seitens der Hersteller. Bezeichnungen wie „VM-ready“ oder „VM-aware“ geben keine allgemeinen Industriestandards wieder, so dass sich die Hersteller die Freiheit herausnehmen, diese Ausdrücke so zu gebrauchen, wie es gerade in ihre Marketingstrategien passt. Überdies ist zu beachten, dass ein System wie Software-defined Storage (SDS) nicht automatisch für eine virtuelle Umgebung geeignet ist, nur weil es mit Hilfe eines Hypervisors gebaut wurde.

Um sich von den Hersteller-Etikettierungen zu befreien, müssen sich IT-Manager nach Produkten umschauen, die einen Applikations-Server (VM) direkt mit den jeweiligen Daten und nicht mit einer LUN oder einem Volume verbinden. Wenn ein System LUNs und Volumes in der traditionellen Art und Weise liefert, eignet es sich keinesfalls als ein speziell für VMs gebautes Gerät in dem Sinne, wie wir diesen Ausdruck hier gebrauchen. 

Berücksichtigt man die Tatsache, dass die Mehrheit der IT-Organisationen bei ihren Windows- und Linux-Umgebungen bereits zu mehr als 50 Prozent virtualisiert ist – wobei einige sich schon der Grenze von 90 Prozent nähern – hat man es mit einem stark wachsenden Markt zu tun. Storage-Manager hätten deshalb allen Grund, sich intensiver mit dieser Situation und mit den sich daraus ergebenden technischen Möglichkeiten zu befassen.

Speicher damals und heute

Einige IT-Fachleute werden in Frage stellen, ob es wirklich Sinn macht, sich die interne DAS-Architektur aus vergangenen Tagen erneut anzusehen. SAN- und NAS-Umgebungen sind aus den Mängeln der DAS-Architektur heraus entstanden, da das Management von Speichersilos, die direkt an Server angeschlossen waren, schwierig und in der Regel sehr kostspielig war. 

Dieser historische Schritt war wesentlich durch die Entwicklung von relativ wenigen Mainframe-Servern zu einem verteilten Computing von Hunderten von Servern verursacht worden. SAN und NAS lieferten die Möglichkeit, Speicher zentral zu verwalten, die Auslastung der Geräte deutlich zu steigern und die Mobilität der zu speichernden Daten zu verbessern. Auf diese Weise stellten SAN und NAS eine wirkliche Revolution beim Speichermanagement für verteilte Systeme dar.

Die Server-Revolution in Richtung virtuelles Computing hat genauso viel Wirkung für Storage entfaltet wie früher die Einführung verteilter Systeme im Netz. Virtuelles Computing hat sich in einem schnelleren Tempo entwickelt, als die Speicherseite mithalten konnte. Zu Beginn mit VMs zurechtzukommen, war noch eine relativ einfache Sache. 

Eine LUN-Vergabe war eine LUN-Vergabe, und das Storage-System scherte sich nicht darum, ob es sich um eine physische oder um eine virtuelle Zuteilung handelte. Als sich jedoch mit der Zeit die VM-Migration weiter entwickelte, wurden die Grenzen von SAN und NAS offensichtlich. Während das Verschieben einer VM trivial wurde, erwies sich die feste Zuteilung von Speicher zu LUNs und Volumes als ein echtes Hindernis, das die von den Unternehmen gewünschte Mobilität deutlich einschränkte.

Zusätzlich hat die Fähigkeit, VMs innerhalb von Minuten einzurichten, zu deutlichen Performance-Einbußen geführt. VMs ohne besondere Umstände einem Volume hinzuzufügen, kann sehr schnell zu einer Überlastung der verfügbaren IOPS-Leistung führen. Einzelne VMs können die Platten-Performance für sich in Anspruch nehmen und so andere VMs, die dem gleichen Volume zugeordnet sind, negativ beeinflussen. Diese Situation wird als „Noisy-Neighbor“-Problem bezeichnet. 

Unternehmen reagieren in der Regel damit, weitere Festplatten einzuschieben, die nur Kosten verursachen und oft nur teilweise genutzt werden. Um wirklich die Vorteile von virtuellem Computing in den Griff zu bekommen, müssen sich Storage-Lösungen von den gegebenen SAN- und NAS-Umgebungen emanzipieren.

Virtuelle Architekturen für Server-Storage

Der Markt für Virtual Server Storage befindet sich noch in seinen Anfängen, und Produkte werden dementsprechend hauptsächlich von neuen Herstellern angeboten, obwohl auch etablierte Produzenten in den Markt eintreten. Um wirklich erfolgreich zu sein, müssen diese Produkte über das Beste aus beiden Welten verfügen. 

Das bedeutet zum einen, dass sie die direkten Verbindungen zwischen Daten und Applikations-Server besitzen müssen, so wie man es bei DAS in der Kombination mit den Vorteilen eines zentralen Speichermanagements findet, und außerdem sollten sie über die widerstandsfähigen Speicherfunktionen von SAN und NAS verfügen. Auf der anderen Seite sollten diese Systeme mit den offenen Eigenschaften des virtuellen Computing ergänzt werden, ohne dabei Performance und Verfügbarkeit in Mitleidenschaft zu ziehen.

Es ist bezeichnend für dieses Marktsegment, welches sich noch in einer frühen Entwicklungsphase befindet, dass es durch sehr unterschiedliche Produkte und miteinander konkurrierende Technologien charakterisiert ist. Alle besitzen sie ihre besonderen Stärken und ihre eigenen Zielgruppen, so dass IT-Spezialisten aus einer breiten Palette von Lösungen auswählen können. 

Etiketten wie „converged“, „hyper-converged“ und andere Marketingparolen werden überall angeheftet, aber ohne Standards und gemeinsame Definitionen werden diese Worthülsen keinem Verantwortlichen dabei helfen, die Produkte einzuordnen und zu verstehen, welche Probleme sie auf welche Art und Weise lösen.

Die neuen Produkte gehören mehr oder weniger zu einer der drei folgenden Gruppen:

  • Software-only (Software-defined)
  • Integrierte Appliance
  • Speicher-Appliance

VMstore von Tintri und die HA-Serie sowie die T-Serie von Tegile Systems sind Beispiele für Speicher-Appliances, aber sie sollten nicht mit den mehr traditionellen SAN- und NAS-Arrays in einen Topf geworfen werden. Beide Hersteller setzen spezielle Betriebssysteme ein, die für VM-Umgebungen optimiert worden sind. Das Betriebssystem von Tintri sieht vor, dass man alle Speicherfunktionen über eine VM ausführen kann. 

Sein internes File-System behandelt jede virtuelle Maschine als individuelle Instanz und fasst alle Speicheraufgaben in einem Single Name Space zusammen. Storage selbst besteht bei VMstore aus einer Kombination von Flash und Festplatten, aber Tintri garantiert, dass 99 Prozent aller I/O-Operationen über hoch-performante Flash-Speicher abgewickelt werden. 

Tegile bietet neben einem hybriden auch ein All-Flash-Array an. Seine IntelliFlash-Software optimiert sowohl die Medien als auch die Datenbewegungen innerhalb des Gerätes. Aufgaben wie Provisioning und Monitoring auf dem VM-Level, um Kapazität und IOPS-Performance zu steuern, werden eher über die virtuelle Maschine als auf dem Volume-Level durchgeführt.

Mit ScaleIO von EMC und der Maxta Storage Platform (MxSP) gibt es zwei Software-only-Lösungen auf dem Markt. ScaleIO wird vom Hersteller als zu „100 Prozent Hardware-unabhängig“ bezeichnet. Es kann auf einem Hypervisor – einschließlich VMware ESXi, Microsoft Hyper-V, Citrix XenServer oder auf KVM – oder auf einem Bare-Metal-Betriebssystem wie Linux laufen. ScaleIO kann Storage-Arrays benutzen, aber EMC rät wegen der günstigeren TCO-Rechnung zu DAS (Direct Attached Storage).

Obwohl MxSP aus einem Software-Produkt besteht, stellt Maxta Referenzarchitekturen für Server-, Speicher- und Netzwerkausrüstung bereit. Der Hardware-Hintergrund muss also stimmen. Die Anwender sind zwar nicht an diese Konfigurationen gebunden, aber die vorgeschlagenen Referenzarchitekturen werden vom Hersteller vorab abgenommen. 

MxSP ist für eine DAS-Umgebung entwickelt worden, die wiederum aus SSDs und aus HDDs bestehen kann. Das Maxta Distributed File System, das einen Global Namespace anbietet und VMDKs unterstützt, ist ein Log-basiertes File System, das das Verschieben von Blockdaten über mehrere Tiers hinweg erlaubt.

ScaleIO von EMC ist ein Block-basiertes Scale-out-System, das kein File System benutzt. Das Produkt besteht aus zwei Hauptkomponenten: einem ScaleIO-Data-Client (SDC) und einem ScaleIO-Data-Server (SDS). Jede dieser beiden Komponenten kann auf einem beliebigen Server installiert werden, aber das SDC-Kernel-Modul muss auf jedem Knoten installiert werden, der einen Datenzugang erfordert. Die SDS-Komponente kann auf Nodes mit eigener DAS-Kapazität installiert werden. EMC behauptet, mit ScaleIO bis zu 11 Millionen IOPS zu erreichen, wobei man lediglich 20 Prozent CPU-Overhead verwenden würde.

Die Virtual Computing Platform von Nutanix stellt ein Beispiel für eine integrierte Appliance dar, die in jedem Node eine Compute-, Storage- und Software-Instanz aufweist. Eine Minimalkonfiguration besteht aus drei Nodes, um eine ausreichende Anzahl von Ressourcen in einer „Shared-Nothing“-Architektur bereitzustellen. 

Nutanix bietet seine eigene Appliance oder vorab geprüfte Konfigurationen auf der Basis von Dell-Servern an. Das Nutanix Distributed File System (NDFS) verbindet alle Nodes miteinander. Eine SSD-Schicht ist erforderlich, auf der die Log-Daten aller Schreibprozesse festgehalten werden. 

Jeder Knoten hat Zugang zu den Metadaten, wobei MapReduce für Verfügbarkeits- und Recovery-Prozesse zum Einsatz kommt. Wie bei allen anderen Produkten dieser Kategorie auch wird Speicherplatz auf dem VM-Level zugeteilt. Das spezifische Dateisystem NDFS verwaltet die Speicherplätze der verschiedenen VMs, um die Performance zu erhöhen. Nutanix empfiehlt in seinen Richtlinien für „Best Practice“, ein Ethernet-Netzwerk mit 10 Gbit/s zwischen den Nodes einzurichten.

VM-spezifischen Storage einrichten

Storage-Tools wie Deduplizierung, Kompression, Thin Provisioning und so fort gehören heute zu der Grundausstattung von Speicher-Lösungen. Das ist auch nicht anders bei speziell angefertigten virtuellen Server-Speichersystemen, bei denen Storage-Verantwortliche inzwischen ebenfalls von solchen Fähigkeiten ausgehen können. 

Ein großer Unterschied zwischen den Systemen besteht jedoch darin, auf welche Weise Daten geschützt werden. Da bei den neuen virtuellen Varianten RAID nicht mehr zu der Architektur gehört, finden wir unterschiedliche Methoden, um Datenintegrität und Recovery-Fähigkeit zu garantieren.

ScaleIO von EMC benutzt zum Beispiel ein verteiltes „Mesh“-Mirroring-Verfahren mit zwei Kopien, um Recovery zu ermöglichen und Single Points of Failure auszuschalten. Jeder Knoten verfügt über eine Mapping-Kompetenz der Systemkomponenten, um Recovery-Prozesse durchzuführen. 

Für das Mapping sind gerade einmal vier Megabytes an Memory erforderlich, um die Metadaten von bis zu zehn Petabytes an aktuellen Daten festzuhalten. Zusätzlich werden die Daten über alle verfügbaren Nodes gestreut („Striping“): Dies reduziert das Risiko eines doppelten Geräteausfalls und führt zu deutlich niedrigen Rekonstruktionszeiten der Daten nach einem Crash.

Maxta MxSP repliziert Daten synchron über mehrere, auch geographisch entfernte Knoten hinweg. Außerdem ist asynchrone Replikation erhältlich. Obwohl die Daten über geographisch verteilte Orte repliziert werden können, geht es Maxta weniger um Disaster Recovery (DR) als um Hochverfügbarkeit und Verfügbarkeit von Applikationen (und nicht bloß von Daten).

Nutanix kündigte vor kurzem das Feature „Metro Availability“ an, das Datensicherung über entfernte Rechenzentren erlaubt. Geräte, die in einem Abstand von bis zu 400 km miteinander verbunden sind, erreichen einen Recovery Point Objective (RPO) von Null und einen Wert von fast Null für Recovery Time Objective (RTO). Damit taugt diese Funktion für Wartungsarbeiten, Hochverfügbarkeit und Disaster Recovery.

In mancher Hinsicht umfassen besondere Speicher für virtuelle Maschinen durchaus eine „disruptive“ Technologie, da sie einige fundamentale Architekturprinzipien ändern. Als solche Neuerungen werden sie zunächst nur einen Silocharakter im Rechenzentrum besitzen. 

Aber man sollte keinen Fehler machen: Es handelt sich hier um eine zukünftige Schlüsseltechnologie im Speicherumfeld. Traditionelle SAN- und NAS-Umgebungen werden noch für einige Zeit vorherrschend sein, aber eine Architektur, die Speichermanagement vereinfacht und virtuelles Computing sinnvoll ergänzt, ist unaufhaltbar. Storage-Verantwortliche tun sich selbst einen Gefallen, wenn sie sich schon jetzt intensiver mit Virtual Server Storage befassen.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im März 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Datenspeicherlösungen für virtuelle Server

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close