Der Nutzen von Standard-Hardware und Flash-Architekturen

Manche Anwender nutzen Standard-Hardware mit Software-basierten Storage-Servern, während andere eine reine Flash-Architektur präferieren.

Täglich hören wir von kostenbewussten IT-Anwendern, die Standard-Server und -Festplatten mit Software-basierten Storage-Services nutzen. Gleichzeitig und oft sogar im selben Rechenzentrum kommen Flash-basierte und hoch optimierte Beschleunigungstechnologien ins Spiel, die eine wettbewerbsfähige Performance zu einem akzeptablen Preisleistungsverhältnis bieten. IT-Architekturen so zu erstellen, dass Kosten und Fähigkeiten (Performance/Kapazität/Durchsatz) ausgeglichen sind, war nie einfach. Allerdings erreichen die potenziellen Unterschiede und Nachteile oder Kompromisse verschiedener Storage-Ansätze extreme Ausmaße. Deswegen ist die Überlegung durchaus gerechtfertigt, ob Standard-Storage oder individuelle Storage-Lösungen die Zukunft bestimmen werden.

Eine Triebkraft für die derzeit herrschenden Trends hat sich seit Beginn der Computer-Ära nicht verändert: Das berühmte Gesetz von Moore, das uns immer noch wachsende CPU-Leistung beschert. Momentan macht die CPU-Performance enorme Wachstumssprünge und wird dafür genutzt zahlreiche und wachsende virtualisierte und Software-basierte Funktionalitäten zu bedienen. Im Jahr 2013 unternahm EMC große Anstrengungen, um seine VNX-Serie zu einer Multi-Core-Lösung zu entwickeln. Das Unternehmen kann nun viele CPUs mit neuen Software-basierten Funktionen nutzen. Dieser Trend spiegelt sich auch in dem Wettbewerbseifer der Hersteller wider, wenn es um die Implementierung von Deduplizierung geht. Obwohl Software-basierte Deduplizierung sehr viel mehr an Prozessorleistung erfordert, so ermöglich das verfügbare „Mehr“ an Compute eine schnellere Verbreitung der Reduzierungstechnologie.

Bei Cloud- und Objekt-Storage geht es mehr um die Ökonomie der Systeme als um schiere Performance. Hier verbreiten sich immer mehr Kapazitäts-orientierte und Software-basierte Architekturen. Trotzdem ist für viele Workloads die Latenz entscheidend. Ist die Performance die priorisierte Anforderung, so haben optimierte Lösungen mit spezieller Firmware und Hardware die Nase vorn.

Der Kampf um den All-Flash-Markt

Um maximale Performance zu erhalten, entscheiden sich immer mehr Storage-Architekten für Solid-State-Lösungen mit Enterprise-Funktionen. Aus diesem Grund kämpfen immer mehr Hersteller um einen der ersten Plätze im All-Flash-Segment. Und so kommen auch mehr und mehr All-Flash-Storage auf den Markt.

Es reicht eigentlich schon, herkömmliche Storage-Arrays mit SSDs oder die Controller oder Netzwerke mit Flash-Cache auszustatten, um eine Performance-Beschleunigung zu erreichen.  Der Ansatz, Tiering und Caching in hybriden Systemen einzusetzen, kann die Flash-Performance für viele unterschiedliche Workloads bereitstellen und die Investition sinnvoll verteilen. Um aber wirklich IOPS zu optimieren und Latenzen zu verringern, müssen Hersteller Lösungen entwickeln, die völlig integriert und speziell für die Solid-State-Welt konzipiert wurden, also reine All-Flash-Lösungen, die nicht auf traditionellem Storage basieren.

Diese dedizierten Flash-Lösungen können allerdings immer noch sehr spezielle und unterschiedliche Anforderungen adressieren. So wurde XtremIO für Performance und Skalierbarkeit konzipiert, ebenso für Langzeitkonsistenz der Performance, was für Produktions-Workloads entscheidend ist. Pure Storage wiederum fokussiert mit seiner effizienten Nutzung von Consumer-Flash auf Performance und Kosteneffizienz. Hersteller Karminario will mit seinen guten Benchmark-Werten des Storage Performance Council sowie mit Scale-up, Scale-out und einer Architektur mit variablen Block-Größen jegliche Flash-Storage-Anforderung bedienen.

Hewlett-Packards All-Flash-Lösung 3PAR basiert auf einem speziell entwickelten ASIC, der mit jeder Art von Medium umgehen kann. Violin Memory hingegen konzipierte zunächst eigene Flash-Module und ist nun dabei Enterprise-Funktionen darauf laufen zu haben.

Alle All-Flash-Architekturen sind optimierte und integrierte Lösungen, in denen jede Komponente auf den Flash-I/O abgestimmt wurde. Spezifische Designs umfassen Firmware/Hardware in Chips, Karten, Module, Cache, Controller, Chassis und natürlich Software-Layer. Allerdings nutzen einige Lösungen auch Standard-Komponenten. Hier ist sicherlich auch noch Raum für Verbesserungen, wenn man nur Geld und Zeit in die Hand nähme, um eine rein Performance-optimierte Lösung von Anfang bis Ende zu entwickeln.

Frischen Wind könnte eventuell durch Avalanche Technology in die Branche kommen. Diese arbeiten an genauso einem – nur für Performance entwickelten – Solid-State-Storage. Wie auch Violin arbeitet die Firma mit Chipsätzen und verspricht umfassende, integrierte Enterprise-Funktionen (Software). Das Unternehmen behauptet mit seiner NAND-Flash-Version im Vergleich zu anderen All-Flash-Arrays die Latenzen um bis zu 40 Prozent zu verringern und den Speicherplatz um die Hälfte zu verkleinern.

Wenn Flash langsam erscheint

Flash-optimierte Lösungen gewinnen derzeit das rennen am All-Flash-Markt, aber am horizont zeichnet sich unweigerlich eine neue Generation an Wettbewerb ab. So werden zum Beispiel neue Solid-State-Technologien entwickelt, die auf vielen Ebenen besser als NAND-Flash sind (MRAM, Memristor), nicht nur bei der Performance. Diese Technologien sind viel schneller als NAND-Flash, so dass viele All-Flash-Anbieter hier eventuell wieder ganz von vorn ihre Arrays entwickeln und konzeptionieren müssen, um weiterhin wettbewerbsfähig zu sein.

 Des Weiteren werden diese schnellen Lösungen persistent sein und mit Storage verschmelzen, was die Transformation im Computing völlig verändern könnte. Dieser Evolutionsschritt passiert nicht über Nacht, allerdings können wir bereits erste Anzeichen sehen: Systeme für das Internet der Dinge mit persistentem Memory statt Memory und Storage. Storage könnte sogar völlig mit Servern konvergieren... oder vielleicht umgekehrt.

Der derzeitige Trend in Richtung Scale-out Big Data und Cloud-Plattformen sowie hin zu konsolidierter RZ-Kern-Performance lässt mich zweifeln, ob Compute wirklich wieder an den Netzwerkrand getrieben wird oder ob das Netzwerk wieder zum Rechner wird ob es vielleicht sogar eine Art „Schwarzes Loch“-Konvergenz hin zu einer neuen Mainframe-Generation geben wird. Allerdings ist eines klar: Geht es um Performance, so sind eine optimierte Architektur und ein ebensolches Design das was zählt.

 

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im April 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close