Probleme mit SSDs bei Write-caching und wie man sie vermeidet

Der Einsatz von Write-Back-Caching erhöht in Storage-Systemen die Schreib-Performance. Allerdings geht das zu Lasten der Lebensdauer des SSD-Caches.

Haben Sie sich jemals darüber gewundert, warum beim Schreiben in den SSD-Cache eines Storage-Systems meistens das Verfahren „Write-Through“ verwendet wird und nicht „Write-Back“? Beide Varianten unterscheiden sich vor allem dadurch, dass beim Write-Back-Caching das Lesen und Schreiben beschleunigt wird, während vom Write-Through nur die Lesevorgänge profitieren. Warum also wird das vermeintlich schlechtere Verfahren bevorzugt?

Beim Write-Through-Verfahren werden die Daten zum Schreiben sofort auf die Festplatten (HDD) weitergereicht. Für das Lesen werden die Daten von den Platten in den SSD-Cache kopiert. Dies geschieht mit Regeln (Policies), die Faktoren berücksichtigen wie das Alter der Daten, Anzahl der Zugriffe darauf, Zeit seit letztem Zugriff, Zugriffsanforderungen von verschiedenen Quellen und mehr. Die Algorithmen entscheiden darüber, welche Daten „hot“ sind oder eben nicht. Es lassen sich aber auch Regeln entwickeln, die Daten so lange im Cache festhalten, bis der Administrator sie von dort entfernt.

Anders funktioniert der Write-Back-Cache, wo die Daten direkt in den SSD-Storage-Cache geschrieben werden. Die Informationen bleiben,basierend auf ähnlichen Faktoren wie beim Write-Trough so lange dort, bis sie verdrängt und dann erst auf die Festplatten kopiert werden. Deshalb wird das Verfahren auch „Zurückkopieren“ oder „Copy-Back-Caching“ genannt. Das Schreiben funktioniert also im schnellen Cache-Speicher. Es profitieren aber nicht alle Schreibvorgänge von diesem Geschwindigkeitsvorteil: Festplatten erledigen sequentielle Schreibvorgänge ziemlich gut und erreichen hier die Performance von SSDs oder sind sogar besser. SSDs hingegen zeigen große Leistungsvorteile bei zufällig verteilten Schreibvorgängen (Random Write). Diese fallen gerade bei virtuellen Servern und virtuellen Desktops an und SSDs bewältigen dann viel mehr IOPS (Input/Output Operationen per second). Das schnelle Write-Back-Caching nutzt also nicht allen Schreibvorgängen gleichermaßen.

Heutige SSDs basieren auf Flash-Technologien, meist NAND-Bausteinen, die eine eingeschränkte Lebensdauer haben. Derzeit sind die Die NAND-Varianten „SLC“ (Single Level Cell), „MLC“ und „eMLC“ (Enterprise Multi Level Cell) am Markt. Die Daten werden in die Zellen geschrieben, ein Bit pro Zelle bei SLC, zwei Bits bei MLC und eMLC. Werden die Daten gelöscht oder überschrieben, wird eine Schicht der Halbleiter-Oberfläche in Mitleidenschaft gezogen. Im Laufe der Zeit löst sich das Trägermaterial so weit auf, dass ein weiteres Speichern unmöglich wird. Derzeit lassen sich SLC-Flash-Bausteine rund 100.000mal überschreiben, eMLC-Chips 40.000mal und MLC weniger als 10.000mal. Write-Back Caching vervielfacht aber die Anzahl der Schreibvorgänge in der SSD und beschleunigt so den Ausfall einer relativ teuren IT-Komponente.

Lösungen für das Beschreiben des Cache-Speichers

Eine Möglichkeit, die Vorteile des Write Back zu nutzen und zugleich die SSDs zu schonen, ist der Einsatz von DRAM und/oder NVRAM (Non-Volatile Random Access Memory). Diese Bausteine sind etwa 20mal schneller als die schnellsten SSDs. DRAM/NVRAM lässt sich für das Write-Back Caching nutzen, wobei die Daten danach sofort auf die Festplatte gespielt werden. Es benötigt dafür ausgefeilte Software wie bei Server-basierter Caching-Software oder einigen Hybrid-Storage-Systemen. Die SSDs erledigen das Write-Through Caching wenn „hot data“ regelbasiert von der Festplatte in die SSD überführt wird. Dieser wechselweise Ansatz liefert das Beste beider Welten.

Das Problem mit dieser Umgehungslösung ist die Flüchtigkeit der DRAM-Bausteine. Das führt zur die Frage, wie Daten dort bei einem unerwarteten Stromausfall geschützt sind. Eine Möglichkeit ist der Einsatz von NVRAMs mit Kondensator, der die Zeit überbrückt, bis die Daten auf die Festplatte oder SSD geschrieben wurden. Denkbar ist auch eine Batterie für das DRAM, damit die Daten auf sichere Medien verlagert werden können.

SSDs haben das Schreiben in den Cache günstiger gemacht und die Lese-Leistung stark gesteigert. Write-Back Caching kann darüber hinaus auch die Schreib-Performance erhöhen, allerdings zu Lasten der SSD-Lebensdauer. Werden DRAM oder NVRAM integriert, dann lassen sich diese Probleme lösen und die Schreibleistung sogar noch verbessern.

Über den Autor: Marc Staimer ist Gründer, Chefanalyst und CDS von Dragon Slayer Consulting in Beaverton, im US-Bundesstaat Oregon.

Artikel wurde zuletzt im August 2013 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Tiered-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close