vladimircaribb - Fotolia

Hyperkonvergente Infrastruktur: Technologie und Markübersicht

Hyperkonvergente Infrastrukturen (HCI) gewinnen zunehmend an Beliebtheit. Wichtige Argumente dafür sind die einfache Zusammenstellung und Bedienung sowie die Erweiterbarkeit.

Hyperkonvergente Infrastruktur (HCI) gibt es bereits seit einigen Jahren. HCI-Systeme konsolidieren die traditionell getrennten Funktionen von Computing (Server) und Storage auf einer einzigen Scale-Out-Hardwareplattform.

In diesem Artikel schauen wir uns an, was heutzutage eine hyperkonvergente Infrastruktur bedeutet. Wir stellen Ihnen die Lieferanten vor, die HCI-Lösungen verkaufen und wie sich die Technologie weiterentwickelt hat.

HCI-Systeme basieren auf dem Konzept, die getrennten physischen Komponenten, die aus Server und Speicher bestehen, in einer einzigen Hardware-Appliance zusammenzuführen. Das Ganze verkaufen Lieferanten dann als Appliance. User können aber auch ihre eigene Plattform aus Software- und Hardwarekomponenten zusammenstellen, die auf dem Markt gerade verfügbar sind.

Die Vorteile bei der Implementierung einer hyperkonvergenten Infrastruktur liegen in den Kosteneinsparungen, die sich aus einer einfacheren operativen Betriebsinfrastruktur ergeben.

Die Integration von Speicherfeatures in die Serverplattform, in der Regel durch horizontal skalierte Dateisysteme, erlaubt das Management von LUNs (Logical Unit Number) und Volumes, die vom Administrator ausgeschaltet oder zumindest verborgen wurde.

Das Ergebnis: HCI kann von IT-Generalisten betrieben werden, anstatt separate, spezialisierte Teams zu beschäftigen, wie sie normalerweise in vielen IT-Organisationen zu finden sind.

HCI-Implementierungen sind in der Regel horizontal skalierbar und basieren auf der Bereitstellung mehrerer Server oder Knoten in einem Cluster. Speicherressourcen werden über die Knoten verteilt, um Ausfallsicherheit gegen das Versagen einer Komponente oder eines Knotens zu gewährleisten.

Die Verteilung von Speicher bietet aber noch weitere Vorteile: Daten liegen näher bei den Servern als bei einem Storage Area Network (SAN). Dadurch kann von schnelleren Speichertechnologien wie NVMe (Non-Volatile Memory Express) und NVDIMM (Non-Volatile dual in-line Memory Module) profitiert werden.

Die Skalierbarkeit von HCI bietet aber auch finanzielle Vorteile, da Cluster im Allgemeinen in Schritten von jeweils einem Knoten aufgebaut werden können. So können IT-Abteilungen zeitnah die Hardware beschaffen, die auch wirklich benötigt wird, anstatt sie im Voraus zu kaufen. Sobald ein neuer Knoten zu einem Cluster hinzugefügt wird, werden die Ressourcen automatisch neu gewichtet, so dass neben Rack, Stack und Verbindung zum Netzwerk nur wenig zusätzliche Arbeit erforderlich ist.

Gemeinsam genutzter Kern

Die meisten HCI-Implementierungen bestehen aus einem sogenannten „Shared Core“-Design. Dies bedeutet, dass Speicher und Computer (virtuelle Maschinen) um die gleichen Prozessoren und Speicher konkurrieren. Grundsätzlich könnte dies als ein Vorteil angesehen werden, da dadurch die Verschwendung von Ressourcen verringert wird.

Angesichts der jüngsten Sicherheitslücken wie Spectre/Meltdown werden I/O-intensive Anwendungen (wie Speicher) jedoch einen signifikanten Anstieg der Prozessorauslastung verzeichnen, sobald sie gepatcht, also nachgebessert worden sind. Dies könnte bedeuten, dass Benutzer mehre Geräte kaufen müssen, um die gleichen Arbeitslasten auszuführen.

Appliance-Anbieter behaupten jedoch, dass „geschlossene Arrays“ nicht gepatcht werden müssen und daher keine Leistung einbüßen würden.

Wenn Server und Speicher getrennt betrieben werden, bringt das einigen Kunden noch immer Vorteile. Speicherressourcen können mit Nicht-HCI-Plattformen gemeinsam genutzt werden. Und traditionelle prozessorintensive Funktionen wie Datendeduplizierung und Komprimierung können auf dedizierte Geräte ausgelagert werden, anstatt vom Hypervisor verarbeitet zu werden.

Leider wird seit der Einführung von NVMe-basiertem Flash-Speicher die Latenz des Storage- und Storage-Netzwerk-Software-Stacks zunehmend problematischer. Deswegen beginnen Start-ups damit, Lösungen zu entwickeln, die als HCI 2.0 klassifiziert werden können, die die Kapazität und die Performance-Aspekte von Storage aufschlüsseln, während Scale-Out-Features weiterhin genutzt werden. Dadurch können diese Systeme die Durchsatz- und Latenzfunktionen von NVMe voll ausnutzen.

NetApp beispielsweise hat eine auf SolidFire basierende HCI-Plattform und eine Architektur eingeführt, die darauf abzielt, Speicher und Rechenleistung zu trennen und diese einzeln in einer generischen Serverplattform zu skalieren. Andere Anbieter haben damit angefangen, entweder Software oder Appliances einzuführen, die die Vorteile der NVMe-Leistung in einer skalierbaren Architektur bieten, die als HCI verwendet werden kann.

Übersicht über die HCI-Anbieter

Cisco Systems hat Springpath im August 2017 gekauft und die Technologie in der HyperFlex-Serie von hyperkonvergenten Plattformen eingesetzt. HyperFlex basiert auf Cisco UCS und kommt mit drei Produkt-Familien daher: Hybrid-Knoten, All-Flash-Knoten und ROBO/Edge-Knoten. Die Plattformen der fünften Generation bieten bis zu 3 TB DRAM und zwei Intel Xeon Prozessoren pro Knoten. HX220c M5-Systeme liefern 9.6 TB SAS HDD (Hybrid), 30.4 TB SSD (All-Flash), während der HX240c M5 27.6 TB HDD und 1.6 TB SSD Cache (Hybrid) oder 87.4 TB SSD (All-Flash) bereitstellt. ROBO/Edge-Modelle verwenden lokale Netzwerkportgeschwindigkeiten, während Hybrid- und All-Flash-Modelle für 40-GB-Ethernet konfiguriert sind. Alle Systeme unterstützen vSphere 6.0 und 6.5.

Dell EMC und VMware bieten eine Reihe von Technologien, die auf VMware Virtual SAN basieren. Diese werden als fünf Produktfamilien angeboten: G-Serie (universell), E-Serie (Einstiegsmodell/ROBO), V-Serie (VDI-optimiert), P-Serie (leistungsoptimiert) und S-Serie (Speicherdichte Systeme). Appliances basieren auf Dell PowerEdge-Servern der 14. Generation, wobei die E-Serie auf 1U-Hardware basiert, während V-, P- und S-Systeme 2U-Server verwenden. Systeme skalieren von Single-Node-, Vier-Core-Prozessoren mit 96 GB DRAM zu 56 Kernen (Dual-CPU) und 1536 GB DRAM. Speicherkapazitäten von 400 GB bis 1.600 GB SSD-Cache und entweder 1,2 TB bis 48 TB HDD oder 1,92 TB bis 76,8 TB SSD. Alle Modelle beginnen bei mindestens drei Knoten und skalieren basierend auf den Anforderungen und Einschränkungen von Virtual SAN und vSphere auf maximal 64 Knoten.

NetApp hat eine HCI-Plattform entwickelt, mit der Speicher und Computing separat skaliert werden können, obwohl sich jeder Knotentyp in demselben Gehäuse befindet. Eine Minimalkonfiguration besteht aus zwei 2U-Chassis mit zwei Rechen- und vier Speicherknoten. Dies hinterlässt zwei Erweiterungssteckplätze. Die Vier-Knoten-Speicherkonfiguration basiert auf SolidFire Scale-Out-All-Flash-Speicher und ist in drei Konfigurationen verfügbar.

Das H300S (klein) setzt 6x 480GB SSDs für eine effektive Kapazität von 5,5 TB bis 11 TB ein. Das H500S (Medium) hat 6x 960 GB Laufwerke (11 TB bis 22 TB effektiv) und das H700S (Groß) verwendet 6x 1.92 TB SSDs (22 TB bis 44 TB effektiv). Es gibt drei Rechenmodultypen: H300E (klein) mit 2x Intel E5-2620v4 und 384GB DRAM, H500E (2x Intel E5-2650v4, 512GB DRAM) und H700E (groß) mit 2x Intel E5-2695v4, 768GB DRAM. Derzeit unterstützt die Plattform nur VMware vSphere, aber in Zukunft könnten weitere Hypervisoren angeboten werden.

Nutanix gilt als führend in der HCI-Technologie und brachte seine ersten Produkte im Jahr 2011 auf den Markt. Das Unternehmen ging im September 2016 an die US-Börse Nasdaq und entwickelt seine Angebote kontinuierlich zu einer Private Cloud-Plattform. Die Nutanix-Hardwareprodukte umfassen vier Familien (NX-1000, NX-3000, NX-6000, NX-8000), die mit dem Einstiegsmodell NX-1155-G5 mit Dual Intel Broadwell E5-2620-v4-Prozessoren, 64 GB DRAM und eine hybride (1,92 TB SSD, bis zu 60 TB HDD) oder All-Flash (23 TB SSD) Speicherkonfiguration beginnen.

Im Highend-Level bietet das NX-8150-G5 Dual-Intel-Broadwell-E5-2699-v4-, 1,5-TB-DRAM- und hybride (7,68 GB SSD, 40 TB HDD) oder All-Flash-Konfigurationen (46 TB SSD). Tatsächlich können Kunden aus einer so großen Auswahl an Konfigurationsoptionen auswählen, dass fast jede Knotenspezifikation möglich ist. Nutanix hat einen proprietären Hypervisor namens AHV entwickelt, der auf Linux KVM basiert. Damit können Kunden Systeme implementieren und entweder AHV oder VMware vSphere als Hypervisor wählen.

Pivot3 war früher auf dem Markt als Nutanix, hatte aber zu dieser Zeit einen anderen Fokus (Videoüberwachung). Heute bietet Pivot3 eine Hardwareplattform (Acuity) und eine Softwarelösung (vSTAC). Die Acuity X-Serie wird in vier Knotenkonfigurationen angeboten, vom Einstiegsmodell X5-2000 (Dual Intel E5-2695-v4 bis zu 768 GB DRAM, 48 TB HDD) bis zum X5-6500 (Dual Intel E5-2695-v4 bis zu 768 GB DRAM, 1,6 TB NVMe SSD, 30,7 TB SSD). Die Modelle X5-2500 und X5-6500 sind „Flash-beschleunigt“ sowohl als Speicherebene als auch als Cache. Acuity unterstützt den VMware vSphere-Hypervisor.

Scale Computing verzeichnete in der Branche ein stetiges Wachstum, wobei sich das Unternehmen zunächst auf SMB konzentrierte und schrittweise das Angebot seiner HC3-Plattform durch die Einführung von All-Flash- und Nodes mit größerer Kapazität erhöhte. Die HC3-Serie umfasst jetzt vier Produktfamilien (HC1000, HC2000, HC4000 und HC5000). Diese Skala reicht vom Basismodell HC1100 (Single Intel E5-2603v4, 64GB DRAM, 4TB HDD) bis zum HC5150D (Dual Intel E5-2620v4, 128GB DRAM, 36TB HDD, 2,88TB SSD). Es gibt auch ein All-Flash-Modell (HC1150DF) mit Dual Intel E5-2620v4, 128 GB DRAM, 36 TB HDD und 38.4 TB SSD. HC3-Systeme nutzen den HyperCore-Hypervisor (basierend auf KVM) zur Virtualisierung und ein proprietäres Dateisystem namens Scribe. Dies ermöglichte Scale, wettbewerbsfähigere Einstiegsmodelle für KMU-Kunden anzubieten.

Simplivity wurde im Januar 2017 von HPE übernommen. Die HPE-Plattform wurde seitdem um das integrierte Systemportfolio erweitert. Die Omnistack-Software, die die Simplicity-Plattform steuert, ist im Wesentlichen ein verteiltes Dateisystem, das in den vSphere-Hypervisor integriert ist.

Eine Accelerator-Card mit dediziertem FPGA wird verwendet, um neue Deduplizierungsdaten in die Plattform zu integrieren. Der HPE Simplivity 380 bietet drei Konfigurationsoptionen: Small Enterprise All-Flash (Dual Intel Xeon Broadwell E-2600 v4-Serie, bis zu 1467 GB DRAM und 12 TB SSD); Medium Enterprise All-Flash (Dual Intel Xeon Broadwell E2600-v4-Serie, bis zu 1428 GB DRAM und 17.1 TB SSD); und Large Enterprise All-Flash (Dual Intel Xeon Broadwell E5-2600v4-Serie, bis zu 1422 GB DRAM und 23 TB SSD). Die Systeme sind horizontal skalierbar, und Knoten können in einer einzigen Konfiguration gemischt oder über geografische Standorte verteilt werden.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im März 2018 aktualisiert

Erfahren Sie mehr über Disk-Arrays

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close