3dmentat - Fotolia

NVDIMMs erweitern die Möglichkeiten für In-Memory

NVDIMMs eröffnen neue Möglichkeiten für In-Memory-Datenbanken. Fortschritte bei der Prozessortechnologie bieten weitere Chancen zur Beschleunigung.

Der Hauptspeicher ist der beste Speicherort für „heiße“ Daten. Die Latenzprobleme bei Festplatten oder Solid State Disks (SSDs) sind dort kein Thema, aber Sie müssen die Storage-Infrastruktur im Backend berücksichtigen.

In-Memory-Datenbanken wie SAP HANA sind viel mehr als ein Frontend-Cache für Datenbanken im Backend. Die meisten sind so aufgebaut, dass alle unnötigen I/O-Operationen (Input/Output) für Caching und andere Prozesse außen vorgelassen werden und nur der Datenbankeintrag aktualisiert wird.

Es ist weiterhin möglich, auf die ganze Arbeit des Storage-Stacks in Bezug auf Speicherort und Laufwerkstruktur zu verzichten. In-Memory-Prozesse beschleunigen Datenbanken um mehr als den Faktor 100. Die Antwortzeiten werden schneller und es sind weniger Server im Datenbank-Cluster erforderlich.

NVDIMM für In-Memory sinnvoll

Bei der In-Memory-Datenbank stellt sich allerdings ein neues Problem. Wenn man alle Operationen im DRAM ausführt, sind sie zwar sehr schnell, aber bei einem Serverausfall drohen Datenverluste. Die Daten ständig im Speicher abzulegen, befreit aus dieser Zwickmühle. Dann aber muss die Storage-Infrastruktur berücksichtigt werden.

Früher galten NVMe-SSDs als sinnvolle Lösung für dieses Problem. Heute fallen aber die Vorteile von Non-Volatile Dual In-line Memory Module (NVDIMM) stärker ins Gewicht. NVDIMM sind einige Terabyte Speicher, die auf DIMM-Bausteinen abgelegt werden. Genau wie NVMe sind NVDIMM Non-Volatile, also nichtflüchtige Speicher, die auch nach einem Ausfall noch verfügbar sind.

NVDIMMs sind aber erheblich schneller als NVMe SSDs. Weil NVDIMMs den Prozessor direkt auf einem schnellen Bus ansprechen und I/O Speichermethoden nutzen, sind sie etwa viermal schneller als NVMe SSDs.

NVDIMMs in Kombination mit DRAM sorgt für einen erheblich größeren Speicher der In-Memory-Datenbanken und vermeidet Probleme beim Aufteilen von Dateien. Noch stärker ins Gewicht fällt, dass die IT-Abteilung ein Image des In-Memory-Speichers vorhalten oder ein Journal der Schreibvorgänge anlegen kann, ohne den operativen Betrieb zu beeinträchtigen.

Die Größe von NVDIMMs ist allerdings geringer als die von SSDs. Das schränkt die Arbeit mit Big Data ein, egal ob es sich um einen kontinuierlichen Datenstrom oder einen großen Datensatz handelt. Zwar wird auf einen Großteil dieser Datenmassen niemals zugegriffen, aber Speicherplatz ist dennoch erforderlich.

Hier gibt es zwei Alternativen: Entweder können Administratoren ein Storage-Netzwerk mit NVMe-Laufwerken aufsetzen oder ein Vielzahl langsamerer SSDs nutzen. Letztere Option bietet nur etwa ein Zehntel der Geschwindigkeit von NVMe, ist aber billiger und bietet hohe Parallelität. Es hängt vom Szenario ab, wie Sie sich entscheiden.

Schnittstellen mit hoher Bandbreite sind bei In-Memory-Prozessen sehr hilfreich. Administratoren können Remote Direct Memory Access (RDMA) over Ethernet nutzen, um Daten unter Speichersystemen zu teilen und dies auf Laufwerke im Storage-Verbund erweitern.

Die Zukunft der Infrastruktur

Die Infrastruktur für In-Memory entwickelt sich ständig weiter. Die interessantesten neuen Trends sind NVDIMMs und Prozessorarchitekturen.

Auf der Roadmap der Technologie von Intel Optane steht die Adressierbarkeit der Bytes. Dies wird Programme in die Lage versetzen, ein einzelnes Byte in den Optane-Speicher zu schreiben. Im Vergleich zur derzeit üblichen 4 KB I/O Methode von NVDIMM ist dies rasend schnell. Der ganze Prozess erfordert nur ein bis zwei Maschinenzyklen.

Die Adressierbarkeit der Bytes erfordert ein völliges Umschreiben der Programme. Glücklicherweise ist die Anwendung auf eine moderne Datenbank-Engine viel einfacher als bei der älteren traditionellen Datenbanken. In der Theorie kann das Konzept auf einen Cluster angewendet werden und dann auf die zugeordneten Optane Laufwerke mittels RDMA.

In Big Data Umgebungen droht ein Flaschenhals durch Netzwerkbandbreite und lokalen Speicher. Die Lösung lautet Datenkompression. Die Kompressionsrate ist unterschiedlich, aber üblich ein Faktor von Fünf zu Eins.

Bei den Prozessoren erregt eine abgeflachte Fabric-Topologie innerhalb des Servers viel Aufmerksamkeit. Dabei teilen sich Graphikkarten, Hauptspeicher, Prozessor und Laufwerke die sehr schnelle Fabric, die mit einem Cluster Fabric verbunden werden kann.

Eine weitere Initiative bei den Prozessoren ist es, Kapazität und Geschwindigkeit von DRAM durch eine engere Verbindung von Prozessor und Hauptspeicher zu verbessern. Dafür gibt es verschiedene Initiativen, die alle auf dem Konzept des hybriden Speicherwürfels beruhen.

Das Ziel ist es, eine Geschwindigkeit von einem Terabyte pro Sekunde zu erreichen. Außerdem soll der Stromverbrauch des Hauptspeichers reduziert werden. Hybride DRAM-, Flash- und Prozessorarchitekturen sollen alle die Geschwindigkeit von In-Memory-Operationen erheblich steigern.

Diese Initiativen werden unterschiedliche Wege beschreiten. Es gibt aber einen klaren Fokus auf Beschleunigung. Die Chancen zum Einsatz von In-Memory-Technologien werden dadurch erheblich erweitert.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

DIMM-Flash wird PCIe-Flash im Speicher überholen

Flash-Storage und die Auswirkungen auf das Netzwerk

Sieben Tipps, die die Effizienz und Leistung von Storage verbessern

Artikel wurde zuletzt im September 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Kapazitätsoptimierung von Primärspeicher

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close