WavebreakmediaMicro - Fotolia

Neue Ansätze zu Server-Side-Storage können All-Flash-Arrays beschleunigen

All-Flash-Arrays haben sich weitgehend durchgesetzt, stoßen aber an Grenzen. Neue Methoden zu Server-Side-Storage können helfen, diese zu überwinden.

Es ist noch nicht lange her, seit die etablierten Storage-Hersteller die Start-ups belächelt haben, die auf All-Flash setzten. Mittlerweile hat sich das Bild gewandelt und Dell EMC, HPE, IBM, Hitachi und NetApp haben ebenso All-Flash-Arrays (AFA) im Portfolio wie die jungen Wilden Pure Storage, Kaminario, Tintri und Tegile.

Einige All-Flash-Spezialisten wurden aufgekauft: NetApp hat Solidfire übernommen und EMC XtremIO. Andere sind bereits vom Markt verschwunden wie die in Konkurs gegangene Violin Memory.

Als unsere Marktforscher von Quocirca mit den frühen AFA-Anbietern über ihre Zukunftspläne sprachen, bot sich folgendes Bild: Einige sahen keinen Bedarf für Tiering in Storage-Flash-Systemen, weil die Geschwindigkeitsunterschiede zwischen Solid-State-Disks (SSDs) und Festplatten dies überflüssig erscheinen ließen. Wenn dann der Hinweis erfolgte, die gleiche Aussage habe es schon zum Verkaufsstart der Festplatten in Bezug auf Bandlaufwerke gegeben, erntete man verwirrte Blicke.

Schon in der Anfangsphase der AFA-Einführung war es klar, dass dieser technologische Fortschritt keine endgültige Grenze setzen werde. Violin Memory hat versucht, sich vom Konzept des Laufwerkes zu verabschieden und setzte stattdessen auf Violin Inline Memory Module (VIMMs). Dies wurde von Drittanbietern nicht unterstützt und konnte mit dem Preisverfall von 2,5 Zoll- und 3,5 Zoll-SSDs nicht Schritt halten.

Dennoch sind durch Bewegung hin zu Flash die Latten höhergelegt worden. Immer mehr primäre Workloads werden auf Flash vorgehalten und der Anfangsvorteil der AFA-Start-ups verschwindet zusehends. Den Herstellern fällt es zunehmend schwer, zusätzliche Leistung aus ihren AFAs herauszukitzeln.

Nehmen wir zum Beispiel eine Festplatte mit Datenlatenzen von 40 Millisekunden (ms). Das hört sich schnell an, aber mit höheren Geschwindigkeiten konnten die Hersteller dies auf 20 ms reduzieren. Zusammen mit einer höheren Schreib-/Lesegeschwindigkeit reduzierte dies die IOPs erheblich.

Latenz in Mikrosekunden

Betrachten wir nun das gleiche Szenario bei All-Flash: Jetzt reden wir von Mikrosekunden (µs) statt von Millisekunden (ms). Die ersten AFAs boten Latenzen von 400 µs. Das ist hundertmal schneller als die 40 ms der Festplatten und die größte Leistungssteigerung, die Storage-Administratoren jemals erlebt haben.

Eine Leistungsverbesserung auf 200 µs ist immer noch eine erhebliche Verbesserung, wird aber durch die Storage-Verbindung und die Geschwindigkeit des Servers ausgebremst, die nicht mit so schnellen Datenströmen umgehen können.

Außerdem ist eine Leistungssteigerung bei AFAs nicht so einfach wie bei Festplatten. Man kann nicht an mechanischen Teilen herumbasteln. Jede größere Verbesserung der Flash-Architektur erfordert neue Produktionsstätten und die sind sehr teuer.

Aber der Bedarf für schnellere Flash-Systeme besteht weiter. Deshalb müssen neue Zugangsweisen erkundet werden. Sicherlich sind 3D-NAND und das von Intel und Micron konzipierte 3D-Xpoint/Optane sehr hilfreich beim Vordringen in neue Leistungssphären.

Mit Schwierigkeiten fertig werden

Aber das Konzept des Disk-basierten Array setzt erhebliche Grenzen. iSCSI, Ethernet, Fibre Channel und sogar InfiniBand tun sich schwer mit den Datenmengen, die 3D-NAND ins Netzwerk übertragen kann.

Wie kann man dies nun bewältigen? Das Zauberwort heißt Server-Side-Storage. Mit nichtflüchtigem Speicher werden Daten so nahe am Prozessor gespeichert wie nur möglich, mit PCIe Cards, M.2 Systemen oder DIMM Slots. Solch ein Konzept wird in konvergenten oder hyperkonvergenten Systemen (HCI) bereits verwendet, ist aber in den engineered Systems versteckt.

Die ersten Systeme nutzten freie PCIe-Slots in den Servern, um spezialisierte Karten mit nichtflüchtigem Speicher (nonvolatile Memory, NVM) aufzunehmen. Die Daten wurden verarbeitet und gespeichert mit der Geschwindigkeit des Computer Bus statt mit der des Local Area Network (LAN). Pioniere in dieser Hinsicht waren Hersteller wie Intel, OCZ, FusionIO und Texas Memory Systems (TMS). Mittlerweile hat IBM TMS gekauft und Sandisk FusionIO.

Diese frühen Systeme hatten allerdings Probleme. Ein SAN oder NAS-Storage-Array kann eingebaut verschiedene Redundanz-Methoden verwenden, von RAID hin zu Erasure Coding oder Direct Data Mirroring. Bei einer PCIe-Verbindung gab es dagegen keine Sicherung gegen Ausfälle und Datenverluste bei einem Systemabsturz waren unvermeidlich.

Einige Anbieter wie Pernixdata sind dieses Problem angegangen mit einem herstellerneutralen Ansatz. Mittlerweile wurde Pernixdata aber von Nutanix gekauft und in deren Suite integriert.

Auch andere Hersteller arbeiten an Server-Side-Storage. Sie setzen auf verschiedene Ansätze, um mit den Schwachpunkten fertig zu werden.

So bringt etwa Diablo Technologies Server-Side-Storage an die derzeit mögliche Grenze. In der Entwicklung befinden sich nichtflüchtige DIMMs (NVDIMMs), die in Einklang mit den Branchenverbänden EDEC und SNIA konzipiert werden. Diablo setzt die NVDIMMs als nichtflüchtigen Speicher ein, der auf der Byte-Ebene adressiert werden kann. Dabei werden die Schwierigkeiten anerkannt, ein völlig fehlertolerantes Server-Side-Storage-System auf Flash-Basis bereitzustellen. Der Fokus liegt stattdessen auf der bestmöglichen Datenmanipulation und der Analysegeschwindigkeit.

Das könnte sich aber ändern. Das Architekturkonzept Non-Uniform Memory Access (NUMA) eines hochparallelen NVDIMM Storage-Systems eröffnet die Möglichkeit eines hocheffizienten Erasure Coding oder Datenresilienz über verschiedene Server hinweg, die über Hochgeschwindigkeitsverbindungen verknüpft werden. Anders ausgedrückt, der Weg zu schneller, hochverfügbarer, resilienter und nichtflüchtiger Server-Side-Storage scheint offen zu sein.

Laut Diablo ist die Technologie soweit wie möglich abstrahiert, ohne die Leistung einzuschränken. Sobald 3D-Xpoint von Intel/Micron die Serienreife erreicht, kann Diablo dies nutzen und die eigenen Systeme weiter beschleunigen.

Mischung der Storage-Typen

Ein weiterer Kandidat ist die Cloud. Bereits jetzt bieten Amazon Web Services, Microsoft Azure und andere Public-Cloud-Anbieter Systeme zur Datenmanipulation und Analyse in hoher Geschwindigkeit. Dafür wird ein Storage-Mix genutzt, der direkt vom Public-Cloud-Anbieter bereitgestellt wird. So lange die Storage-Systeme und die Geschäftslogik sich am selben Ort befinden, könnte dies eine gute Lösung für diejenigen sein, die damit kämpfen, mit der Veränderung der Storage-Systeme Schritt zu halten.

Das Rennen um höhere Geschwindigkeiten kennt keine Gnade. Kein Hersteller kann es schaffen, alle Ansprüche zu befriedigen, selbst wenn Intel es schafft, Terabytes an Storage als Level 1 Cache direkt in den Prozessor zu integrieren.  Die Anwender wollen Datenanalyse in Echtzeit und selbst on-Chip Cache kann dies nicht gewährleisten.

Da es so viele unterschiedliche Methoden gibt, nichtflüchtige Speichersysteme bereitzustellen, gibt es einen starken Bedarf, intelligentes Caching und Tiering einzusetzen. Hierfür gibt es Geheimrezepte einiger Anbieter wie Diablo.

Zeitspanne in Nanosekunden

Bei Festplatten konnte noch Software für Optimierung in der Zeitspanne von Millisekunden sorgen, in der auf die Platte zugegriffen wurde. Jetzt aber reden wir bei AFAs von Mikro- oder sogar Nanosekunden und schlecht programmierte Caching und Tiering Software kann das ganze System erheblich ausbremsen.

Wenn man vor einer Kaufentscheidung steht, sollte man die Fortschritte von SAN, NAS und Server-Side-Storage im Auge behalten und bereit für neue Technologien sein.

Wenn es nicht unausweichlich ist, schaffen sie keine Systeme an, bei denen ein Upgrade mit erheblichem Aufwand verbunden wäre.

Über den Autor:
Clive Longbottom ist Mitgründer des Marktforschungsinstitutes Quocirca und hat über 20 Jahre Erfahrung als Branchenanalyst.          

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

DIMM-Flash wird PCIe-Flash im Speicher überholen

Flash-Storage und die Auswirkungen auf das Netzwerk

Sieben Tipps, die die Effizienz und Leistung von Storage verbessern

Flash-Management ist wichtig für IT-Profis, wird aber noch vernachlässigt

 

Artikel wurde zuletzt im März 2017 aktualisiert

Erfahren Sie mehr über Kapazitätsoptimierung von Primärspeicher

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close