Mehr Effizienz im Storage-System: Virtualisierung oder Software-defined Storage?

Es muss nicht immer Software-defined Storage sein: Auch durch Storage-Virtualisierung lassen sich Kosten senken und die Performance verbessern.

Server-seitiges Storage und virtuelle SANs ziehen derzeit einiges an Aufmerksamkeit auf sich. Einige Anbieter von Server-Hypervisoren suggerieren, dass herkömmliche Storage-Technologien wie SAN (Storage Area Network) und NAS (Network-attached Storage) zu starr und unflexibel seien und die Anforderungen des durch Server-Virtualisierung ausgelösten Next-Generation Computing nicht erfüllen könnten. Wenn das Ziel eine verbesserte Effizienz des Storage sein soll, dann kann eine Überprüfung der existierenden Infrastruktur möglicherweise sinnvoll sein. Vielleicht lässt sie sich optimieren, auch wenn neue Workloads höhere Ansprüche haben.

Schenkt man diversen Marketing-Abteilungen Glauben, scheint die Sache klar: Die Storage-Infrastruktur wird effizienter, wenn man zum einfacheren Modell des Direct-attached Storage zurückkehrt, bei dem das Storage also direkt am Server-Gehäuse angeschlossen oder intern verbaut wird. Laut diversen Hypervisor-Anbietern ist dieses Server-seitige Modell, kombiniert mit einigen zentralisierten Software-Funktionen, mit denen die Storage-Services an die gehosteten Workloads angepasst werden, die nächste Evolutionsstufe in der Storage-Topologie.

Auf den ersten Blick ist gegen Software-defined Storage, also gegen die Kombination aus Server-seitiger Topologie und zusätzlichen Storage-Services mit Mehrwert, nichts einzuwenden. Wenn Sie einen zentralisierten Software-Service für das Storage erstellen entfallen schließlich viele Kosten, zum Beispiel indem Sie die zu den Arrays gehörigen Software-Lizenzgebühren  aus der Kalkulation herausnehmen können. Server-seitige Storage-Arrays replizieren und synchronisieren ganz einfach Daten untereinander. Die Server bereiten sich also selbständig darauf vor, sollte eine Applikation von einem physischen Host zu einem anderen migrieren. Durch die Replikation der Daten und Services können Workloads von VM zu VM migriert werden, ohne das eine Neu-Konfiguration des Storage nötig wäre. Dasselbe gilt für die Applikations-Ebene und für das Anpassen der benötigten Ressourcen.

Ganz banal gesagt spart man sich zeitaufwendige, manuelle Prozeduren, um Pfade zwischen Gast-Applikationen neu zu konfigurieren. Diese liegen als virtuelle Maschinen (VM) auf physischen Hosts vor. Die physische Storage-Hardware oder die logischen Datenträger speichern Workload-Daten und möglicherweise auch VM-Disks wie VMDK oder virtuelle Festplatten. Somit lassen sich Gast-Applikationen schneller von einem physischen Host zum nächsten bewegen. Die Gründe hierfür könnten zum Beispiel Load Balancing, Performance-Optimierung oder eine Reaktion auf Hardware- und Software-Ausfälle sein.

Für viele Befürworter sind frei verschiebbare Applikationen nur der Anfang aller Vorteile. Software-defined Storage bedeutet auch, dass Sie für das Provisioning von neuem Storage keine zusätzlichen Schritte einleiten müssen. Genauso müssen Sie auch nicht mehr darauf achten, dass neuem Storage die richtigen Services wie Thin Provisioning, Deduplizierung und so weiter zugeordnet werden. Zudem müssen Sie auch nicht mehr nach jeder Änderung der Konfiguration Ihre Parameter und Prozesse für das Storage-Management anpassen. Für Verfechter von Software-defined Storage können herkömmliche SAN- oder NAS-Geräte dies alles nicht.

Vier Vorteile, die für virtuelle Datenträger (Virtual Volumes) sprechen

In der Realität sieht es tatsächlich so aus, dass viele aktuelle SAN- und NAS-Architekturen momentan zur Ineffizienz von Storage beitragen. Allerdings wird man sich noch genauer unterhalten müssen, wie man diesen Missstand adressiert. Natürlich tendieren Hersteller von SAN- und NAS-Geräten dazu, gezielt solche Produkte anzupreisen, die die Kosteneinsparungen auf Ebene von Festplatten in Hinblick auf Preis pro Gigabyte verwässern. Hersteller bevorzugen in diesem Fall, proprietäre Software mit vermeintlichem Mehrwert mit proprietären Arrays zu verbinden, um so die Profite zu steigern. Dass man diese Kosten-Problematik mit der Rückkehr zu einfachem Direct-attached Storage und zentralisierten Software-Funktionen adressieren kann, ist alles andere als sicher.

Wenn man sich den evolutionären Prozess ansieht, der die Storage-Technologie von isolierten Inseln hin zu immer größeren Storage-Pools getrieben hat, dann mag der Schritt hin zu Server-seitigen Hardware-Topologien wie ein Rückschritt aussehen. Eine Alternative zum Abbau des Shared Storage wäre es, die Kapazitäten von allen existierenden SAN-Geräten zu virtualisieren. Diese Kapazitäten stellt man dann sowohl virtualisierten als auch nicht-virtualisierten Applikationen in Form von virtuellen Datenträgern zur Verfügung. Geht man so an die Sache heran, gibt es vier potenzielle Vorteile:

Vorteil 1: Einfachere Replikations-Prozesse

Virtualisiert man Storage-Kapazität, dann lassen sich sogenannte Virtual Volumes erstellen. Diese bewegen sich dann mit den Gast-Applikationen von einem physischen Server zum nächsten. Das eliminiert die Notwendigkeit mehrerer Replikations-Prozesse und die Daten hinter den individuellen Servern, die die entsprechenden Applikationen hosten, werden im voraus instanziiert. Zudem steht so die Möglichkeit zur Verfügung, sowohl virtualisierte x86-Workloads als auch die geschätzten 25 Prozent nicht-virtualisierter Apps, die Umsatz erzeugen und über das Jahr 2016 hinaus bestehen bleiben, zu unterstützen. Die Virtualisierungs-Engine für das Storage kann eine Software sein, die auf herkömmlichen Servern läuft, beispielsweise DataCore Softwares SANsymphony-V. Auch Appliances wie zum Beispiel IBM SAN Volume Controller sind denkbar. In beiden Fällen ist der Einsatz wesentlich kostengünstiger, als das komplette existierende Storage zu ersetzen.

Vorteil 2: Vereinfachte Konfiguration

Wandert der virtualisierte Workload von einem Host zu einem anderen, bleibt der virtuelle Datenträger mit allen relevanten Daten an einem Ort. Allerdings werden natürlich neue Routen für Applikations-Storage-IO kalkuliert, neu ausbalanciert und in die neue Topologie eingesetzt. Um die jetzt woanders gehosteten Applikationen wieder mit den Data-Storage-Services zu verbinden sind keine weitere Konfigurationsschritte notwendig.

Vorteil 3: Gemeinsam genutzte Funktionen zu einem anderen Host mitnehmen

Diese Services werden nicht mehr länger auf Array-Controllern gehostet, wo sie isolierte funktionale Insel-Lösungen darstellten. Stattdessen werden Sie mithilfe eines Software-basierten „Über“-Controllers gemeinsam genutzt. Wenn also Virtual Volumes mit einem bestimmten Workload verknüpft werden, lassen sich zusätzlich Dienste zur Datensicherung, zum Performance- und Capacity-Management sowie zur Sicherheit hinzufügen – Services, die dem Workload zugeordnet bleiben, auch wenn die Anwendung auf einem anderen Host migriert wird.

Vorteil 4: Längere Lebensdauer für die Hardware

Virtualisierung von Storage bringt praktische Vorteile mit sich. Dazu gehört auch, dass sich ältere Storage-Geräte länger nutzen lassen. Somit lassen sich die Kosten für Upgrades so lange wie möglich hinauszögern, da man bereits im Einsatz befindliche Hardware weiter verwenden kann. Teure Betriebsmittel wie zum Beispiel Flash-Storage können so zudem effizienter genutzt werden. Erstellen Sie die Pools im Storage richtig, können Sie die Daten später auf Tiered Storage aufteilen.

Trotz all dieser Vorteile gilt die Storage-Virtualisierung bisher für viele nicht als Software-defined Storage.

Da Effizienz oft in Bezug auf einen möglichst hohen ROI (Return on Investment) gemessen wird, sollten Sie beim Thema Storage-Effizienz mit dem Kauf der richtigen Storage-Art zum bestmöglichen Preis anfangen. Sogar gebrauchte Storage-Geräte können als Ergänzung Ihrer Infrastruktur durchaus in Frage kommen, solange Sie die Rechtmäßigkeit und den guten Zustand des Storage im Auge behalten. Ein weiterer offensichtlicher Punkt ist natürlich auch die richtige Konfiguration, um eine möglichst hohe Uptime und Widerstandsfähigkeit und einen hohen Daten-Durchsatz zu erreichen.

Weniger offensichtlich ist die Antwort auf die Frage, warum man existierendes und gemeinsam genutztes Storage abbauen und ersetzen sollte, vor allem wenn die Option Storage-Virtualisierung all die Ziele von Software-defined Storage erfüllen würde und gleichzeitig keine neue Investition in neue Storage-Infrastruktur erfordern würde.

Ineffizientes Storage wirkt sich negativ auf die Kosten aus ruft oft lauthals nach dem Rotstift. Daher sollten Sie mit unternehmerischem Denken an die Sache herangehen das Problem an der Wurzel angehen. Dann bekommen Sie die beste Performance und Effizienz aus Ihrem Storage und optimieren den ROI. Das wiederum dürfte auch die Geschäftsleitung freuen.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Juli 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Virtualisierungsstrategien

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close