Hyper-Konvergenz: Das Ende allen Storages?

Technologien wie Hyper-Konvergenz verändern nachhaltig die RZ-Strukturen und fordern herkömmliche Storage-Konzepte heraus.

Hyper-konvergente Systeme scheinen nicht nur ein Marketing-Hype zu sein, sondern machen sich langsam in den Rechenzentren breit und verändern diese nachhaltig. Ebenso forcieren sie ein Umdenken in der Storage-Strategie in Unternehmen.

Jahrzehntelang etablierten sich monolithische Systeme mit proprietärer Software, die über die Jahre hinweg auch anfingen, mit anderen Systemen zu operieren, aber doch eigene Storage-Welten darstellten und bis heute sind. Storage Area Networks (SAN) basieren genau auf diesen Systemen und werden nach wie vor mittels Arrays erweitert, die mehr Offenheit in RZ bringen sollen. Darüber hinaus sind Appliances auf dem Markt, die dedizierte Storage-Funktionen wie Deduplizierung, Performance-Optimierung oder Quality of Service bieten.

All diese Lösungen sind reine Storage-Systeme, die weit hinter der Applikation sitzen, hinter dem Hypervisor, hinter dem Switch und weit weg von der Rechnerleistung (Compute), wo die eigentliche Verarbeitung geschieht.

Angesichts der rasant aufsteigenden hyper-konvergenten Systeme scheint dieses Storage-Modell überholt. Die Daten sollen näher an die Anwendung heranrücken, was aber mit Silo-Lösungen kaum möglich ist. Und transaktionsreiche sowie IOPS-lastige Anwendungen können und wollen nicht „ewig“ warten, bis die Daten gespeichert und verfügbar sind.

Hyper-Konvergenz löst dieses Dilemma – ähnlich schon wie der Mainframe – und bringt Compute, Netzwerk, Storage und Virtualisierungs-Software in einer Node zusammen. Dies ist dann logischerweise keine Storage-Node mehr, sondern streng genommen eine Server-Node mit hoher Speicherkapazität, die dann mittels Software mit zahlreichen Storage-Services beziehungsweise Funktionen ausgestattet wird. 

Schlüsselwort ist hier – wie in vielen anderen Fällen – Standard-Hardware (Commodity) der auch Comercial off-the-shelf (COTS)-Komponenten. Die Intelligenz kommt von der Software, die Leistungsfähigkeit der Hardware ist in einer Box gebündelt und aus diesem Grund leicht und in jede Richtung skalierbar. Erst recht, da die einzelnen Komponenten PCIe-Karten, Flash-Laufwerke, CPUs, HBAs und viele mehr eben Standard und bei fast allen Anbietern erhältlich sind.

Cloud-Provider, die Google-Unternehmen und Facebook-Firmen dieser Welt und andere Organisationen mit großen Datenbeständen und viel Traffic/Transaktionen profitieren von dieser Technologie. Neue Sicherheitsmethoden wie ECC, Redundanzen und intelligente Cluster mit Replikation machen zudem das schwerfällige RAID-Verfahren obsolet.

Geht es nach den idealistischen IT-Visionären, so kennt das Rechenzentrum der Zukunft keine Hersteller- oder Technologiegrenzen: Alles ließe sich mit allem mischen und unter einem Abstraktionslayer zusammenfassen. Anwendungen erhielten exakt die Performance und Kapazität, die sie benötigen, ohne zu viel oder zu wenig anzusetzen. Mit hyper-konvergenten Systemen werden die ersten Schritte in diese Richtung getan, aber bedeutet dies tatsächlich das „Aus“ für Arrays, Monolithen und Appliances?

Nein, ganz so einfach ist die Rechnung nicht. Allein schon deswegen nicht, da eine solche radikale Umstellung eines RZs nicht nur monetäre Aufwände, sondern auch enorme Leistungen seitens des IT-Teams erfordern würde. Allein die Migration aller Daten aus den unterschiedlichen Speicherbereichen wäre enorm aufwendig. Dann blieben noch immer Fragen offen, wie die nach den Archivdaten oder inaktiven Informationen, um nur ein Beispiel zu nennen.

Und was passiert, wenn bei einer Erweiterung der hyper-konvergenten Lösung trotz aller Granularität immer etwas mehr als nötig erworben wird? Ließe sich das vor dem CFO rechtfertigen? Rechtfertigt die Flexibilität, Simplifizierung der IT und die Funktionalität auch eventuelle Nachteile?

Dies sind Fragen, die noch nicht beantwortet werden können. Dazu bedarf es noch der flächendeckenden Einsatzszenarien, aus denen man lernen und wachsen kann. Hyper-Konvergenz ist noch eine neue und sicher auch aufregende Welt, die viele Dinge im Rechenzentrum möglich macht, die vorher nicht machbar waren. Allerdings eignet sich diese Art der Server-Storage-Lösung nicht überall.

Somit werden wir mit Sicherheit einige Unternehmen sehen, die ihr Data Center auf dieser Technologie aufbauen, aber für Teilbereiche nach wie vor auf ihre Storage-Silos setzen, seien es SAN- oder NAS-System oder andere Arrays. Eine Koexistenz wird die Norm, reine Hyper-Konvergenz-basierte RZs wohl eher eine Ausnahme. Nichtsdestotrotz sollte man als IT-Verantwortlicher diese Technologie im Auge behalten und auch testen, denn sie birgt großes Potenzial, die Rechenzentren wirklich signifikant und auf lange Sicht zu verändern. Storage wird deswegen trotzdem nicht obsolet.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Mai 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Dem Gespräch beitreten

1 Kommentar

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

Treffend dargestellt
Abbrechen

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close