Andreas Berheide - Fotolia

Hyperkonvergente Systeme drängen ins Rechenzentrum

Hyperkonvergente Technologien werden populärer. Sie vereinfachen die Rechenzentrums-Architektur und erleichtern die tägliche Arbeit.

Die Marktforscher von Gartner berichten, dass 2016 der Markt für hyperkonvergente Systeme um 79 Prozent auf ein Volumen von fast zwei Milliarden Dollar ansteigen wird. Auch die Analysten von IDC sehen es ähnlich und gehen von 1,9 Milliarden Dollar Umsatz mit hyperkonvergenten Systemen in diesem Jahr aus. In der Prognose für 2019 wird ein Umsatz von 4,8 Milliarden Dollar erwartet.

Die hyperkonvergenten Systeme sind also im Markt angekommen. Pioniere wie Nutanix und Simplivity sind auf der Erfolgsspur. Auch hyperkonvergente Architekturen auf der Basis von VMware vSAN wie EMC vXRail oder Hitachi UCP HC sind gefragt. Zunehmend im Kommen sind neue Akteure wie Cisco (mit Springpath), Microsoft Azure Stack, Hedvig, Pivot3, Scale Computing und andere.

Aber die Perspektive sollte gewahrt bleiben. Der Weltmarkt für Server hat ein Volumen von 55 Milliarden Dollar und der Enterprise Storage Markt liegt bei 37 Milliarden Dollar. Damit wären die für 2019 von IDC geschätzten Zahlen für den Hyperkonvergenz-Markt von 4,8 Milliarden Dollar nur etwa fünf Prozent des Infrastrukturgesamtmarktes. Das ist signifikant, aber keine Revolution.

Der Infrastrukturmarkt ist bemerkenswert konstant. Es entfallen jährlich etwa vier Milliarden Dollar auf Mainframe-Systeme, also Maschinen, die es bereits etwa 50 Jahren gibt. Die etablierte Ordnung in den Rechenzentren gerät nicht so schnell ins Wanken. Die Kompetenzen der Administratoren ändern sich nicht so schnell wie die Technologien. Und für die Administratoren ist jeder potenzielle Wandel auch ein Risiko. Und Unternehmen scheuen Risiken, trotz aller Lippenbekenntnisse zur digitalen Transformation.

Die verführerischen Vorteile der Hyperkonvergenz

Für die Anfangserfolge der Hyperkonvergenz gibt es einige Schlüsselfaktoren. Da ist zunächst die Einfachheit. Wo traditionelle Architekturen mühsam konfiguriert und aufeinander abgestimmt oder teuer konvergente Systeme angeschafft werden müssen, locken hyperkonvergente Systeme durch schnelle Implementierung und einfache Administration.

Ein anderes Argument für die Hyperkonvergenz besteht darin, dass sie leicht ausgebaut werden können. Um die Storage-Kapazität zu erweitern, genügt es in der Regel, einen zusätzlichen Knoten hinzuzufügen und in einen Cluster einzubinden. Auch reichen für den Weg aus einem einzigen Rechenzentrum in eine Multi-Rechenzentrumsumgebung in der Regel einige Mausklicks. In einer traditionellen Architektur ist dies dagegen ein gewaltiger Aufwand.

Der letzte Vorteil ist die Wirtschaftlichkeit. Die ersten Anwender haben Kosteneinsparungen durch den Einsatz hyperkonvergenter Systeme und die Vereinfachung der Architektur bestätigt. Das gilt vor allem durch den Verzicht aus SAN und Storage Arrays. Auch die Administrationskosten sinken. Und das gilt schon ohne die speziellen Funktionen, die einige Anbieter wie etwa Simplivity mit integriertem Backup bereitstellen. Von diesen können vor allem mittelständische Kunden oder Unternehmen mit zahlreichen Filialen profitieren.

Was sind hyperkonvergente Systeme     

Hyperkonvergente Systeme kombinieren Server, Storage und Virtualisierung in einer einzigartigen Appliance. Der Schlüssel liegt in der Softwarefunktionalität. Die Software stellt mindestens die Rechner- und Storage-Funktionen bereit und erlaubt es, die Architektur des Rechenzentrums erheblich zu vereinfachen.

In der Praxis beruhen hyperkonvergente Systeme auf einem oder mehreren x86-Servern. Die Server enthalten Festplatten oder SSDs. Aber der Erfolgsschlüssel liegt in der Software, von der jeder Hersteller eine proprietäre Version bietet. Die Software verbindet die Systeme und stellt die Anbindung an den Hypervisor her, vor allem Microsoft Hyper-V oder VMware vSphere, aber zunehmend auch KVM. Die Hauptfunktion der Software ist es, die Rechenkapazität der gesamten Nodes zu aggregieren und diese als einen Pool zur Verfügung stellen, auf den verschiedene Server zugreifen können. Jede Maschine im Verbund ist so Teil eines Clusters. Sie nimmt an einem verteilten System teil, dessen Kapazität mit der Zahl der Knoten wächst.

Zum Beispiel verwendet Nutanix sein Dateisystem NDFS, um durch die Nutzung der Storage-Kapazitäten ein einzigartiges Hochleistungs-Storage zu schaffen und dies den virtuellen Maschinen im System zur Verfügung zu stellen. In ähnlicher Weise beruhen die hyperkonvergenten Systeme von VCE, Hitachi und HPE auf der VMware Software vSAN.

Bei Simplivity übernimmt die Software DVP (Data Virtualization Platform) diese Rolle. Jeder Anbieter hat eine proprietäre Lösung für die Steuerung und das Management der Systeme, sei es Hedvig, Scale Computing, Springpath oder Pivot3, um die Verwaltung der Storage-Ressourcen zu ermöglichen. 

Die Konvergenz beschränkt sich dabei nicht auf Storage. Alle Hersteller bieten eine Management-Konsole, die in einer einheitlichen Benutzeroberfläche den Überblick über die Bestandteile der hyperkonvergenten Infrastruktur bietet. Und jeder hat außerdem noch Zusatzfunktionen eingebaut. So liefern sich etwa Nutanix und Simplivity eine gnadenlose Schlacht im Hinblick auf die Funktionen für Backup, Data Protection und Stretched Cluster.

Die Funktionsvielfalt der Administrationswerkzeuge ist ebenfalls ein Streitpunkt. Microsoft versucht sich mit Azure Stack dadurch abzusetzen, indem es einen Teil der Azure Services lokal anbietet. Nutanix hat durch den Kauf von Calm ebenfalls den Markt für DevOPs und Platform as a Service im Blick. EMC verspricht, das beste aus der Dell-Server-Technologie mit seiner eigenen Storage-Kompetenz und den Top-Angeboten von VMware zusammenzubringen, um sein vXRail-Angebot weiterzuentwickeln.

Die Integration der fortschrittlichen Rechenfunktionen in hyperkonvergenten Plattformen bedeutet einen echten Fortschritt gegenüber konvergenten Architekturen, die nur den Support und das Packaging verbessern. Und es trägt erheblich zur Einfachheit im Rechenzentrum bei.

In der Tat ist ein hyperkonvergentes Rechenzentrum nichts anderes als eine Ansammlung von x86 Servern mit SSDs und Festplatten, die über 10 GbE-Leitungen miteinander verbunden sind. Storage-Arrays und SAN-Architekturen werden überflüssig. Die Integration der Komponenten entfällt und die Steuerung erfolgt in einer einheitlichen Benutzeroberfläche, im Allgemeinen über den Hypervisor, sei es VMware vSphere oder Microsoft Hyper-V. Für den Support ist ein einziger Anbieter verantwortlich.

Diese Vereinheitlichung hat auch Folgen für die Organisation. Storage wird zum reinen Service, der in einer transparenten Form zur Verfügung gestellt wird. Dadurch entfällt die Notwendigkeit, Mitarbeiter mit Storage-Kompetenz zu beschäftigen. Das ist eine gute Nachricht für mittelständische Unternehmen mit begrenzten Ressourcen. Sie beschäftigen in der Regel Generalisten und können auf den teuren Zukauf externer Expertise verzichten. Aber es ist gleichzeitig auch schlecht für Storage-Spezialisten in größeren Unternehmen.

Evolutionäre Architekturen

Ein Merkmal hyperkonvergenter Systeme ist die Fähigkeit, sich an die Bedürfnisse der Anwender anzupassen. Die Software ist von vorneherein auf Scale-Out ausgerichtet. Storage-Kapazität wird mit Nodes hinzugefügt. Dann verteilt der Cluster automatisch die Workloads, um die Leistung zu optimieren.

Am Anfang wurde hyperkonvergente Systeme oft wegen mangelnder Flexibilität kritisiert. Heute gibt es dagegen zahlreiche Auswahlmöglichkeiten in Sachen CPU und Disk-Kapazität. Man kann auch asymetrische Systeme in einen Cluster einbinden, wenn man bestimmte Regeln beachtet. Das Gesamtsystem kann durch das Hinzufügen von Knoten ausgebaut werden, aber in den einzelnen Knoten kann die Kapazität in der Regel nicht ausgebaut werden. Die Gründe dafür liegen oft in den Data Protection Policies der einzelnen Knoten, die das einfache Hinzufügen von Platten verhindern. Diese Unbequemlichkeit ist aber heute gut dokumentiert und kann durch das Beachten einzelner Regeln gemildert werden.

Appliance oder selber basteln

Eine der Debatten bei Hyperkonvergenz dreht sich um die Frage, ob es besser sei, eine von den Herstellern vorkonfigurierte Appliance zu kaufen oder ob es besser sei, sich ein eigenes System zusammenzustellen.

Für einige Anwender liegt der Hauptvorteil der Hyperkonvergenz in der Konvergenz zwischen Storage und Server und nicht in der mehr oder minder proprietären Ummantelung der einzelnen Hersteller. Technologien wie die von Scale Computing oder Hedvig erlauben es, Server und Storage zu kombinieren, aber dabei plattformunabhängig zu bleiben.

Man kann auch ein hyperkonvergentes System mit Bausteinen von VMware zusammenstellen, wenn man sich an die Vorgaben des Herstellers hält.

Die Frage wird noch wichtiger, wenn Open Source ins Spiel kommt. Die Red-Hat-Virtualisierung kann etwa mit der OSS-Storage Gluster kombiniert werden und soll demnächst auch mit Ceph kombiniert werden. Jedes Unternehmen kann einen eigenen Weg wählen, wenn es in die Ära der Hyperkonvergenz eintreten will.        

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Das Ende externer Speicher und der Trend zur Hyperkonvergenz.

Auf Konvergenz und Hyperkonvergenz folgt Disaggregation.

Das sind die Hauptakteure im Hyperkonvergenz-Markt.

Der Hyperkonvergenz-Markt: Hier sind die Herausforderer.

Artikel wurde zuletzt im Oktober 2016 aktualisiert

Erfahren Sie mehr über Storage-Anbieter

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close