polygraphus - Fotolia

NVM Express ist eine gehypte Technologie auf der Suche nach einem Problem

NVM Express oder NVMe gilt als neuer Weg zur Beschleunigung von Flash-Architekturen. Aber diesem Anspruch wird sie nicht gerecht und es gibt kaum Vorteile.

Viele Kunden sind auf die Technologie Non-volatile Memory Express (NVMe) aufmerksam geworden. NVM steht für die Spezifikation Non-volatile Memory Host Controller Interface, mit der Flash Memory Storage direkt die PCIe-Architektur benutzen kann, also ohne einen SATA-Platten-Controller.

Erst im Juni 2016 stellten NVMe-Spezialisten eine Spezifikation für NVMe over Fabrics vor, die einige bereits als entscheidenden Fortschritt sehen, um skalierbarere Flash-Plattformen zu erstellen.

Doch eigentlich ist die Sache nicht so einfach: Bei näherer Betrachtung scheint es sich bei der Entwicklung aller dieser „Standards“ nicht um die Lösung fest umrissener Probleme auf einer gemeinsamen Basis zu handeln. Es sieht eher so aus, als ob es sich um eine abgehobene Entwicklung um ihrer selbst willen handelt.

Was wir heute wissen

Flash Memory wird laut Herstelleraussagen billiger als Disk, und die Preise werden weiter fallen. Flash ist für Leseprozesse gut geeignet, jedoch weniger gut für Schreibprozesse. Die Unzulänglichkeiten beim Schreiben von Daten auf Flash haben zu viel Entwicklungsarbeit auf Seiten der Hersteller geführt – allerdings nicht bei Techniken, die die grundsätzlichen Begrenzungen von Flash selbst angehen, sondern auf dem Feld von Manipulationen und Tricks, um die Unzulänglichkeiten weniger relevant erscheinen zu lassen.

Ein leitender Manager eines Speicherherstellers, mit dem ich gesprochen habe, machte diese Beobachtung: „Selbst wenn die Technologie von Flash-Chips voranschreitet, wird die Schreib-Performance schlechter. So wird eine Menge Arbeit in die Controller gesteckt, die das Schreibproblem verstecken und die Performance weniger einschränken soll.“ Letztendlich, fügte er hinzu, setzten alle Hersteller auf die fallenden Preise von Storage Kits und auf eine wachsende Verbesserung der Performance gegenüber diskbasierten I/O- und Latenzprozessen. Das werde schließlich die Flash-Verkäufe weiter ankurbeln.

Aus dieser Perspektive kann man NVM Express als einen weiteren Versuch interpretieren, die Performance von Flash zu verbessern, obwohl es nicht klar ist, ob dieser theoretische Vorteil irgendetwas in der Realität bedeuten wird. Vereinfacht gesagt, besteht NVMe in der Anstrengung, das SATA-Interface von den Flash-Storage-Datenprozessen abzutrennen und Flash Storage direkt mit dem PCIe-Bus zu verbinden.

Das klingt ziemlich einfach, aber ein Blick in die geschichtlichen Hintergründe gibt etwas mehr Aufklärung.

Die Geschichte

Mit dem ersten Auftreten von Flash Memory als Storage-Instanz in den Jahren nach 2000 versuchte jeder Hersteller, seine eigene Technologie für Controller, Software-Stack, Treiber und so weiter zu schaffen, um Flash ohne die Anwendung des SATA-Interface zu adressieren. Sie prahlten damit, dass ihre proprietäre Technik einzigartig, agiler und schneller als die der Konkurrenten sei und außerdem viel besser, als nur eine Festplatten- und Controller-Architektur zu emulieren. Flash sollte sein eigenes Interface bekommen, „um seine natürlichen parallelen Eigenschaften freizusetzen“. Dies wurde auch als „große proprietäre Gelegenheit“ bezeichnet, um meinen bereits erwähnten Industrieveteranen und Insider zu zitieren, die schließlich in einer Menge an intellektuellem Eigentum für Firmen wie Fusion-io resultierte.

Doch die proprietäre Flash-Technologie verlor schnell an Popularität, was vielleicht an den Reaktionen der Konsumenten als einem Nebeneffekt der Finanzkrise von 2008 lag. Große Firmen wollten einfach nichts mehr kaufen, das sie von einem besonderen Hersteller abhängig machen würde – außer es war Technologie von Intel.

Als Intel auf seiner Developer Conference 2007 ankündigte, an seinem eigenen PCIe-Interface für Flash Memory zu arbeiten, das weniger Buffers und einen standardisierten Driver Stack benutzen würde, wäre es für Investoren sicher eine gute Idee gewesen, sich von einer Menge dieser scheinbar so aufblühenden Flash-Storage-Hersteller zu verabschieden. Es lag auf der Hand, dass Intel am meisten von einer „standardisierten“ NVM-Express-Spezifikation profitieren würde – und seit 2014 ist diese auch marktreif.

Ein skeptischer Kopf wie ich sieht die Evolution von NVMe getrieben durch Intels Wunsch, Flash auf PCIe zu „besitzen“, und dies ist genau (auf Gedeih und Verderb) das, was geschehen ist. Es bleibt abzuwarten, welche praktischen Vorteile NVMe liefern wird – obwohl davon bisher nicht viel zu hören war.

Manche werden einwenden, dass das ursprüngliche Ziel von NVM Express darin bestand, Flash zu seinen aktuellen Performance-Leistungen zu verhelfen – ohne den Engpass, wenn die I/O-Prozesse einen SATA-Bus passieren müssen. Allerdings sind Varianten dieser Argumentation bereits gebraucht worden, um nahezu jede Änderung und jede Technologie – von Software-defined Storage und hyper-converged Infrastruktur bis eben hin zu NVMe – zu rechtfertigen. Alle zielten in den letzten zehn Jahren darauf ab, den I/O-Path und die Storage-Infrastruktur zu verbessern, und alle liefen auf die gleiche Begründung hinaus: „Herkömmlicher Storage ist zu langsam. Wir brauchen mehr Geschwindigkeit auf Seiten der Infrastruktur, um die Anwendungen schneller zu machen.“ Die Wahrheit sieht aber etwas anders aus.

Die Realität

Man muss sich zunächst klarmachen, dass die Performance von Anwendungen und besonders die von Datenbanken in den meisten Fällen nicht durch I/O-Prozesse auf der Storage-Seite begrenzt ist. Die Wahrheit besteht darin, dass man außerhalb von Umgebungen für High Performance Computing (HPC) nur selten genug Anwendungs- oder Speicher-I/O-Prozesse erzeugt, um den Storage-I/O-Interconnect voll in Anspruch zu nehmen oder sogar größere Warteschlangen oder Engpässe zu erzeugen.

Erinnern Sie sich noch daran, wie vor ein paar Jahren SATA-II- und SATA-III-Drives auf den Markt kamen? Konsumenten füllten ganze Diskussionsseiten im Internet mit Fragen zur Kompatibilität zwischen den jüngsten SATA-Geräten und den Motherboards, die lediglich die langsameren, älteren Versionen der Interconnect-Technologie anboten. Ernsthafte Technikmitarbeiter von den Systemherstellern wiesen schnell darauf hin, dass es keine Probleme mit dem Senden der Daten gäbe. Sie schätzten SATA nicht als nicht-performant oder als Grund für Latenzen bei Storage ein. Die Standards verbesserten sich weiter in dem Maße, wie sich die Entwicklung allgemein verbesserte, obwohl sie nicht ausreichten, wirkliche Computing-Defizite zu adressieren.

Flash bringt uns ein paar Jahre vorwärts. Trotz der Anstrengungen von VMware, die schauerliche Performance von virtuellen Maschinen für Storage nutzbar zu machen, zeigen die beiden gewöhnlich keine Korrelation, geschweige denn irgendeine (zu beweisende) kausale Beziehung.

Wie DataCore Software inzwischen schon dreimal bewiesen hat, besteht der wirkliche I/O-Engpass am Ende des I/O-Weges (raw I/O genannt): Also dort, wo der Prozessor-Core die Applikationsanforderungen ausführt, I/Os erzeugt und diese I/O-Anforderungen an den I/O-Bus zur Durchführung weiterleitet. DataCore hat vor kurzem mit dem SPC-1 Benchmark des Storage Performance Council fünf Millionen IOPS erzeugt, indem Code zur Parallelisierung der seriellen oder sequentiellen I/O-Prozesse eingesetzt wurde. Ohne die lernfähige Parallel-I/O-Technologie von DataCore benutzen Multicore-Chips noch immer die sequentiellen Prozessmethoden von Single oder Unicore Chips. DataCore hat jetzt bewiesen, dass nichts von dem Unsinn, der uns über Legacy Storage oder Fibre Channel Fabrics erzählt wird, richtig ist. DataCore erreichte die fünf Millionen IOPS mit einer Storage-Umgebung und FC-Verbindung, wobei gerade mal 50 Prozent der verfügbaren Bandbreite der Netzwerkverbindung genutzt wurden.

NVM Express ist für mich nur ein technologischer Schritt voran, der mehr von der Entwicklung um der Entwicklung willen und von Marktzielen der Hersteller getrieben ist als von irgendwelchen gut definierten Anwenderproblemen. Flash wird bei den Kosten konkurrenzfähiger gegenüber Festplatten, und Anwender sind bereit, Performance-Probleme mit Flash zu meistern, selbst wenn nur minimale Gewinne bei Latenzen und Durchsatz erzielt werden. Vielleicht reicht das auch schon.

Über den Autor:
John Toigo ist CEO von Toigo Partners International und Chairman des Data Management Institutes.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Was sind die Ziele der Spezifikation NVM Express (NVMe)?

Die wichtigsten Neuerungen von NVMe 1.2.

Zstor stellt NVMe over Fabric Storage Array mit geringen Latenzen vor.

E8 Storage bringt NVMe Modell mit 10.000.000 IOPs.

Artikel wurde zuletzt im Dezember 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close