Software-defined Storage: Technologien hinter dem Hype

Software-defined Storage (SDS) ermöglicht eine automatische und flexible Bereitstellung von Storage-Ressourcen.

Angesichts all der Aufregung um Software-defined Storage (SDS) lässt sich derzeit kaum klar sagen, welche Anbieter, die mit diesem Schlagwort werben, auch wirklich damit aufwarten können. Experten sind sich aber darüber einig, dass sich alle echten SDS-Technologien durch ein gemeinsames Ziel auszeichnen: den Aufbau eines nicht proprietären Systems auf der Grundlage von Software, das eine automatische und flexible Bereitstellung von Storage-Ressourcen ermöglicht.

Im Prinzip entwickelt sich SDS als Ökosystem von Produkten, mit denen Software von Hardware für Storage-Networking entkoppelt und in einem zentralisierten Controller oder Hypervisor untergebracht wird. Die zentralisierte Software bietet dann Einblicke in sämtliche physischen und virtuellen Ressourcen, was Programmierbarkeit und automatisierte Provisionierung ganz nach Bedarf ermöglicht. Die Software kann dabei auf einem Server laufen oder zu einem Betriebssystem oder Hypervisor gehören, ist aber nicht mehr nur Firmware auf einem Stück Hardware. Ebenso kann sie Hardware von unterschiedlichen Herstellern steuern, so dass sich damit nicht-proprietäre Umgebungen aufbauen lassen.

Damit löst Software-defined Storage  einige der Herausforderungen, die Organisationen heutzutage plagen, sagt Debbie Moynihan, Vice President für Marketing beim Storage-Anbieter Inktank: Es bringe die Fähigkeit zu unbegrenzter Skalierung, zur Arbeit mit Standard-Hardware statt einer engen Bindung an nur einen Anbieter und die Chance, all das auf sehr kosteneffektive Weise anzugehen. „Ich verstehe SDS als „Nutzer-definiertes Storage“ – Sie können den Storage-Typ implementieren, den Sie brauchen, und ihn so weit skalieren, wie Sie wollen, und zwar mit beliebiger Hardware“, sagt Moynihan.

Was treibt Software-defined Storage voran?

Die Idee, Storage mit nicht-proprietärer Software zu steuern, ist nicht neu. Seit fast einem Jahrzehnt wird im Open-Source-Projekt Ceph Software entwickelt, mit der sich auf der Grundlage von Standard-Hardware massiv skalierbares Unified Storage aufbauen lässt.

Ich verstehe SDS als „Nutzer-definiertes Storage“ – Sie können den Storage-Typ implementieren, den Sie brauchen, und ihn so weit skalieren, wie Sie wollen, und zwar mit beliebiger Hardware

Debbie Moynihan, Vice President für Marketing, Inktank

Die aktuelle Dynamik bei SDS ergibt sich jedoch aus dem wachsenden Interesse an Software-defined Networking (SDN) und Software-definierten Rechenzentren (SDDC). Diese Technologien sind als Gegenbewegung zum alten Modell für den Aufbau von Storage-Infrastrukturen zu verstehen, wie Moynihan erklärt: Hier kam bislang zuverlässige Hardware in Kombination mit unzuverlässiger Software zum Einsatz. Letztlich habe sich das als teure und unflexible Methode für den IT-Betrieb erwiesen.

„In der Vergangenheit wurden Storage-Lösungen als Hardware-Appliances entwickelt und vermarktet. Aber der traditionelle Ansatz, für Storage Hardware-Appliances zu installieren, lässt sich nicht für die Cloud skalieren“, sagt Moynihan.

Der Hauptreiz von SDS  liegt in Skalierbarkeit und Flexibilität. Für Moynihan ist klar: „Der Wandel zu Software-definierter Infrastruktur zeigt sich an der Art und Weise, wie Unternehmen wie Google oder Amazon mit Scale-out arbeiten. Und er hat bewiesen, dass genau das umgekehrte Modell – also zuverlässige Software auf unzuverlässiger Hardware – einfacher umzusetzen und zu verwalten ist; außerdem ist es auch noch billiger“.

Das Konzept SDS wurde bereits mit Cloud-Umgebungen im Hinterkopf entwickelt. „Software-definiertes Storage ist darauf ausgelegt, sich auf tausende Knoten skalieren zu lassen und viele Petabyte an Daten zu unterstützen. Das wird zur Norm werden, weil das Volumen an gespeicherten Daten weiterhin exponenziell zunimmt und weil mehr und mehr Storage in die Cloud geht“, erklärt Moynihan.

Anwendungsfälle für SDS: Nicht-proprietäre Technologie mit zentralisierter Steuerung

Neben Skalierbarkeit wird mit SDS-Technologie auch eine Befreiung von den Grenzen durch proprietäre Hardware angestrebt, sagt Greg Schultz, Analyst bei StorageIO.

Auch Steve Houck, COO beim SDS-Anbieter DataCore, schätzt die Vision der Unabhängigkeit von einzelnen Herstellern. „Der größte Wert von Software-defined Storage  für die Kunden liegt darin, dass sie damit mit jeder Hardware und jedem Hypervisor arbeiten können“, sagt er. Hardware-orientierte Anbieter, die ihre Software-Funktionen ebenfalls als SDS bezeichnen, aber bei proprietären Lösungen bleiben, seien nichts als verwirrend für den Markt.

DataCore bietet eine Schicht zur Storage-Virtualisierung, mit der das Management zentralisiert und  Programmierbarkeit sowie Provisionierung über Hardware unterschiedlicher Anbieter hinweg ermöglicht wird. Das passt gut dazu, wie Rich Conway SDS versteht: als „Software-Schicht zwischen den physischen Festplatten und den Servern für Lese- und Schreibvorgänge“. Conway arbeitet als Senior Technologist für Amnet Technology Solutions, einem Service-Provider für IT- und Video-Technologien.

Sein Unternehmen hat sich für SANsymphony, die DataCore-Software für Storage-Virtualisierung, entschieden und macht intensiven Gebrauch von ihren Mirroring-Möglichkeiten: „Wir haben zwei vollständige Kopien unserer Daten. Der Server sieht sie als nur einen Satz an, in Wirklichkeit aber betreibt SANsymphony zwei vollständige SANs, so dass Ausfälle oder Wartungen völlig unbemerkt vom Server vor sich gehen“, erklärt Conway.

SANsymphony ermöglicht zudem Auto-Tiering, so dass die verfügbaren Storage-Ressourcen laut Conway höchst effizient eingesetzt werden. „Man bekommt die Vorteile der schnellsten Festplatten, ohne zu viel zu bezahlen. Die SQL-Datenbank kommt auf die schnellste Platte, andere Sachen wie Backup-Dateien werden anderswo untergebracht, liegen aber trotzdem auf derselben LUN. Mit einem konventionellen SAN wäre das schwierig zu realisieren“, sagt er.

Ryan Makamson ist Systems Engineer an der School of Electrical Engineering der Washington State University. Er arbeitet derzeit mit einer VM-bewussten Storage-Appliance von Tintri. Nach seinen Worten bedeutet Software-defined Storagevor allem Transparenz über eine zentrale Konsole und einen flexibleren Umgang mit Tiering und Management.

Die Storage-Appliance für VMs von Tintri ermöglicht mittels Virtualisierung eine flexible Bereitstellung von Storage-Kapazität. Beispielsweise kann sie komplexe Datenbanken mit unterschiedlichen Service-Levels in Abhängigkeit vom Bedarf aufnehmen. „Früher mussten wir eine sehr strukturierte und mehrstufige Infrastruktur verwalten, um Nutzer von Datenbanken und Anwendungen zu unterstützen. Mit Virtualisierung haben wir jetzt einen gemeinsamen Schirm darüber gespannt und können die Ressourcen viel effizienter verwalten und verwenden“, erklärt Makamson. Tintri trenne Nutzung von der Administration, Input/Output lasse sich auf der Grundlage des Bedarfs zuteilen.

All diese Anwendungsfälle zeigen das Interesse von Organisationen an kosteneffektiven, skalierbaren Storage-Lösungen, die auf Standard-Hardware laufen. Mit SDS ist das möglich, sagt Moynihan von Inktank, denn es biete grundlegende Architektur-Komponenten wie intelligente Algorithmen für Daten-Unterbringung, keinen „single point of failure“ und genügend Flexibilität zur Unterstützung einer großen Bandbreite an Implementationsarten. „Ceph zum Beispiel ist mit mehreren beliebten Cloud-Plattformen integriert, hat eine native Programmier-Schnittstelle und unterstützt Objekt-, Block- und Datei-Storage im selben Cluster. Derartige Flexibilität gibt es in der traditionellen Storage-Welt nicht“, sagt sie.

Moynihan weiter: „In unseren Augen müssen die Storage-Lösungen, die Leute heute kaufen, auf die Zukunft ausgerichtet sein. Ceph wurde im Kern entwickelt als intelligenter Objekt-Speicher, kann aber auch für unterschiedliche Storage-Arten in nur einem Cluster verwendet werden.“

Weil heutzutage derart viele Anbieter SDS-Funktionalität versprechen, können Investitionsentscheidungen für Käufer schwierig sein, sagt Analyst Schultz. Sein Rat: „Lassen Sie sich nicht verwirren, aber fragen Sie nach. Wenn ein Anbieter behauptet, sein Produkt sei Software-definiert, finden Sie heraus, was er damit meint und wie es funktioniert.“ Zudem sei zu klären, ob die jeweilige Technologie mit VMware, Hyper-V oder der Cloud verbunden ist und ob sie sich in der aktuellen Umgebung einsetzen lässt.

Artikel wurde zuletzt im Mai 2013 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Kapazitätsoptimierung von Primärspeicher

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close