jules - Fotolia

F

Welche Zukunftsperspektiven hat NVMe?

NVMe ist auf dem Weg, ältere Technologien wie SAS, SCSI und SATE zu verdrängen. Die Zukunftsaussichten der Flash-Technologie sehen rosig aus.

Nonvolatile Memory Express (NVMe) begann als eine Handvoll Protokolle, die die Verbindung von Flash-Laufwerken mit einem PC über den PCI Express Bus beschleunigen sollten.

NVMe ist bereits zum De-facto-Standard im Consumer-Bereich geworden. In der Unternehmenswelt geht es darum, für schnelle Verbindung der Rechner zu Storage und Netzwerk über eine Fabric zu sorgen.      

Das Ziel ist es, Flash-Laufwerken im Storage-Netzwerk dieselbe I/O-Geschwindigkeit zu ermöglichen, wie sie mit einer direkten Verbindung vom Computer über PCIe möglich wäre. In diesem Artikel beleuchten wir den Stand der Dinge bei NVMe sowie die möglichen Zukunftsaussichten.

Das NVMe-Protokoll war die logische Konsequenz aus der hohen Geschwindigkeit von Flash-Laufwerken. Das alte SCSI-Protokoll im Betriebssystem konnte einfach mit den schellen I/O Eingaben nicht mehr mithalten. Es gab zu viele Interrupts und im SCSI Stack wurden tausende CPU Anweisungen pro Datenblock ausgeführt.

Unternehmen brauchten eine Alternative mit weniger Interrupt, die die Overhead-Zeit für produktive Arbeit der CPU freischaufelt. Gleichzeitig war eine Methode für den Datentransfer gefragt, die die CPU Anweisungen reduzierte.

Es geht um Datentransfer

Das NVMe-Protokoll hat sich sehr rasch entwickelt, um diese Probleme anzugehen. Der Direktzugriff auf den Speicher über den PCIe Bus löste das Problem der Interaktion und war eine bewährte Datenbewegungsmethode. Der Transfermechanismus wandelte sich damit von einem „Push“-System, das Transferanfragen und Bestätigungen benötigte, zu einem „Pull“-System, das Daten abfragt, wenn sie nötig sind. Die Erfahrung hat gezeigt, dass damit der CPU Overhead auf wenige Prozent verringert wurde.

Das Interrupt-System wurde durch eine Methode kreisförmiger Warteschlangen (Circular Queue) ersetzt. Ein Satz an Queues bearbeitet die anstehenden Transfers und ein anderer Satz den Abschlussstatus. Diese Kommando-Queues werden mit Remote Direct Memory Access (RDMA) abgearbeitet, während die Status-Queues als Antwortblöcke behandelt werden, was das Interrupt-Problem entscheidend reduziert.

Eine häufige Klage über die SAS/SATA/Fibre Channel File Stacks war der Mangel an Priorität oder Quelleigner. NVMe löst dies mit bis zu 64.000 möglichen Queues elegant. Jede Queue identifiziert Ursprung und Priorität. Dies erlaubt es beispielsweise, Daten zurück zum Ursprungskern oder einer spezifischen Anwendung zu senden.

Dieses Adressierungsschema wird noch mächtiger, wenn wir die Erweiterung von NVMe over Fabric betrachten.

Die physische Seite von NVMe hat sich auf die Wahl zwischen einer Verbindung von zwei PCIe Wegen in einem M2-Konnektor oder einem standardisierten SATA-Express-Konnektor (eSATA) herauskristallisiert. Beide sind so definiert, dass SATA-Laufwerke alternativ zu NVMe/PCIe angeschlossen werden können.

Die M2-Technologie erlaubt die Verbindung sehr kompakter SSDs. Die M2-Laufwerke verzichten auf Hüllen und andere Bestandteile, um Platz und Kosten zu sparen. Deshalb sind sie mit erheblichen Kapazitäten in Größen von 1,5 und 3 Zoll Länge mit nur einem Zoll Breite verfügbar. 2018 können wir 10 TB-Laufwerke in diesen winzigen Formfaktoren erwarten.

Der Aufstieg von NVMe hat dazu geführt, dass SAS mittlerweile veraltet ist. SAS fußt auf dem SCSI-Software-Stack und den alten, langwierigen FileIO-Systemen. SAS wurde sogar mit Einstiegs-SSDs mit nur zwei Milliarden IOPs nicht fertig. Es gab Versuche, SAS mit RDMA zu verbinden, aber der Kampf ist klar zugunsten SATAe entschieden.

Wie sieht es nach dem Abgesang auf SAS mit SATA aus? Es gibt keinen Preisunterschied zwischen SATA- und PCI-Schnittstellen. Elektronisch sind sie fast identisch. Die Chipset-Unterstützung für Autodetection und gemeinsame Elektronikverbindungen machen die Verbindungen auf dem Host trivial.

Der einzige Grund, SATA beizubehalten, liegt darin, eine künstliche Preisdifferenz zwischen NVMe- und SATA-Laufwerken aufrechtzuerhalten. Die Preisdynamik im SSD-Markt ist anspruchsvoller als in dem für Festplatten. Latenz, IOPS, Lebensdauer werden ebenso beachtet wie Kapazität. Die Unterschiede zwischen Laufwerken für Enterprise und Consumer verwischen sich zusehends. Große Cloud-Provider setzen für ihre Bedürfnisse auf andere Unterscheidungsmerkmale.

Redundanz auf der Appliance-Ebene und Wartung ohne Reparaturen bedeuten, dass selbst ein bescheidenes Single-Port-Standardlaufwerk für Storage-Zwecke genutzt werden kann. Hochleistungslaufwerke mit langer Lebensdauer sind Primär-Storage vorbehalten. Die Konsequenz dieses Wandels lautet, dass SATA mittelfristig überflüssig wird und NVMe/PCIe wird sich als Standardschnittstelle durchsetzen.

Gegen welche Technologie wird NVMe demnächst antreten?

Es ist aber kein Weg ohne Hindernisse für NVMe. Intel tritt mit der Optane-Technologie als Wettbewerber an. Intel plant, die Optane-Laufwerke mit einem eigenentwickelten und streng proprietären Fabric-Schema auszustatten. Dies basiert auf OmniPath und wird nativ in den Prozessoren eingebaut. Intel geht davon aus, dass diese Fabric alle kritischen Module eines Servers verbinden wird. Dazu gehören Grafikkarten, programmierbare Gate-Arrays, Speichermodule und lokale SSDS.

Die Marktmacht von Intel bedeutet eine erhebliche Durchsetzungskraft. Alle alternativen Schnittstellen werden Translator-Chips benötigen und damit ist die nächste Generation von NVMe gefordert. Die Idee, NVMe over Fabrics zu erweitern, wird schon seit Jahren diskutiert. Das ist eine vernünftige Erweiterung und wir haben schon gute Erfahrungen mit RDMA over Ethernet und Infiniband gemacht.

Wir können eine Auseinandersetzung zwischen Intel Optane und Ethernet/RDMA erwarten. Letzteres hat den riesigen Vorteil langer Erfahrung im Markt, eine starke Technologie-Roadmap, große installierte Basis und ist als Cluster-Verbindungsschema allgegenwärtig. Branchenführer wie Mellanox arbeiten bereits an Translatoren zwischen Omnipath und Ethernet. Ich erwarte, dass bald hybride Cluster-Verbindungen auftauchen mit Omnipath für die interne und Ethernet für die externe Verbindung der Server.

Das ist die Zukunft der Storage-Systeme. Eine dieser Fabric-Methoden wird sich durchsetzen und rasch akzeptiert werden. Die Verbindung aller großen Module in einem Cluster in einen virtualisierbaren Ressourcen-Pool hinein, über die aus dem Fabric Grid zugegriffen werden kann, erlaubt sehr mächtige und vielseitige Systeme.

NVMe wird gewinnen, was auch geschieht. Die Ringbuffer/RDMA-Methode funktioniert so gut, dass all die verschiedenen Angebote es nutzen werden.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

NVMe und 3D XPoint

Die NVMe-Technologie könnte das Konzept der Direct-Attached-Storage wiedererwecken

Neue Software-Architekturen mit NVMe und Direct-Flash können Grenzen überwinden

Artikel wurde zuletzt im August 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Solid-State-Speicher

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close