.shock - Fotolia

Garantierte Storage-Performance erfordert neue QoS-Methoden

Neue Storage-Architekturen und QoS-Ansätze sind eine Voraussetzung, um die Storage-Performance in Rechenzentren zuverlässig prognostizieren zu können.

Neue Storage-Architekturen und QoS-Ansätze sind eine unabdingbare Voraussetzung, um die Storage-Performance in größeren Rechenzentren jederzeit zuverlässig prognostizieren zu können. Nur so kann ein Cloud-Betreiber seinen Kunden auch eine Storage-Performance-Garantie geben.

Die Sicherstellung der Storage-Performance unter den verschiedensten Rahmenbedingungen – einschließlich Fehlerszenarien, Belastungsspitzen, variable Workloads oder steigende Kapazitätsanforderungen – ist für den Cloud-Provider oder Betreiber einer Private Cloud von essenzieller Bedeutung. Traditionelle QoS-Methoden (Quality-of-Service) wie Datenratenlimitierung, Priorisierungsschemata oder Tiering-Algorithmen sind dabei aber an ihre Grenzen gestoßen. Gefragt sind deshalb neue QoS-Ansätze im Storage-Bereich.

In Public oder Private Clouds verlangen Unternehmen auch angesichts steigender Datenmengen und komplexerer Workloads immer eine konstante Leistungsfähigkeit und Verfügbarkeit der Systeme. Möglich ist dies nur mit einer Storage-QoS, die integraler Bestandteil des Systemdesigns ist.

Vor fünf Jahren führte der amerikanische Storage-Anbieter SolidFire die „Garantierte Quality of Service“ als Storage-Architektur ein, die sich zum Standard entwickeln könnte. Sie ist geeignet für große Unternehmen und Service-Provider, die eine konsistente und planbare Storage-Performance für geschäftskritische Enterprise-Applikationen benötigen. Das Ziel dieses QoS-Ansatzes ist es, unter allen Einsatzszenarien immer die gleiche Performance zu garantieren.

Eine zukunftssichere Storage-Infrastruktur sollte laut SolidFire sechs Kernkomponenten umfassen:

  • eine durchgängige SSD-Architektur
  • eine echte Scale-Out-Architektur
  • eine RAID-lose Datensicherung
  • eine ausgewogene Lastverteilung
  • eine granulare QoS-Kontrolle
  • eine Performance-Virtualisierung

Durchgängige SSD-Architektur stellt konsistente Latenz bei jeder I/O-Last sicher

Grundvoraussetzung für eine erfolgreiche QoS-Umsetzung ist die Ablösung von Festplatten-basierten Storage-Systemen durch Lösungen mit einer All-SSD- oder All-Flash-Architektur. Nur so kann eine konsistente Latenz bei jeder I/O-Last gewährleistet werden. Der Grund liegt auf der Hand, da eine drehende Festplatte gleichzeitig immer nur eine I/O-Aktion ausführen kann und jeder Suchvorgang zu einer Latenz führt.

In Cloud-Umgebungen, in denen sich mehrere Applikationen oder virtuelle Maschinen Festplatten teilen, kann dies zu Varianzen hinsichtlich der Latenz von 5 bis zu mehr als 50 Millisekunden führen. Bei All-SSD-Architekturen hingegen führt das Fehlen von beweglichen Bauteilen zu einer konsistenten Latenz, unabhängig davon, wie viele Applikationen I/Os anfordern und ob es sich dabei um sequenzielle oder Random-I/Os handelt. Im Vergleich zum I/O-Flaschenhals einer Festplatte können SSDs beispielsweise mit acht oder 16 Kanälen I/O-Aktionen parallel ausführen – und das stellt eine niedrige Latenz bei jeder I/O-Last sicher.

Die QoS-Storage-Komponenten der SolidFire-Lösung im Überblick

Scale-Out-Architektur gewährleistet lineare, vorhersagbare Performance bei einem skalierenden System

Traditionelle Storage-Architekturen folgen dem Scale-Up-Modell, wobei ein oder zwei Controller mit einem Set von Platteneinheiten verbunden sind. Mehr Kapazität wird durch das Hinzufügen von Platten erreicht. Ein Problem dabei ist, dass ein Upgrade der Controller-Ressourcen nur durch den Wechsel auf einen „größeren“ Controller erreicht werden kann. Wird hier der „größtmögliche“ eingesetzt, bleibt als weitere Ausbaumöglichkeit nur noch die Bereitstellung weiterer Storage-Systeme. Dies führt unweigerlich zu einer Erhöhung des Administrationsaufwands und der Kosten. Eine echte Scale-Out-Architektur hingegen verbindet die Controller-Ressourcen mit der Storage-Kapazität. Jedes Mal, wenn Letztere erhöht wird und mehr Applikationen hinzukommen, wird die Performance ebenfalls erhöht. Diese Performance ist für jedes Volume im System verfügbar, nicht nur für neue Daten. Das ist essenziell nicht nur für die Planung der Administratoren, sondern auch für das Storage-System selbst im Hinblick auf eine konstante Performance.

RAID-lose Datensicherung bietet garantierte Performance im Fehlerfall

Im Hinblick auf das Thema QoS verursacht ein RAID-Ansatz erhebliche Performance-Beeinträchtigungen beim Ausfall einer Platte — oft um mehr als 50 Prozent. Das liegt daran, dass ein Fehler eine zwei- bis fünffache Steigerung der I/O-Last für die restlichen Speicherplatten nach sich zieht. SolidFire setzt auf eine RAID-lose Datensicherung auf Basis eines Replikationsalgorithmus. Dabei werden redundante Datenkopien eines einzelnen Speichermediums auf alle übrigen Platten in einem Cluster gleichmäßig verteilt – und nicht nur auf ein spezifisches RAID-System. Diese Datenverteilung führt dazu, dass im Fehlerfall die I/O-Last einer ausgefallenen Platte von den restlichen Speichermedien im System übernommen wird. Für jede einzelne Platte bedeutet dies dann lediglich eine geringe Zunahme der I/O-Last.

Ausbalancierte Lastverteilung beseitigt Spitzenlasten, die eine nicht vorhersagbare I/O-Latenz verursachen

In einer traditionellen Storage-Architektur werden innerhalb eines RAID-Sets die Daten in einem Storage-Pool gespeichert. Diese verbleiben in der Regel auf derselben Platte. Kommen neue Platten hinzu, werden diese typischerweise für neue Daten genutzt und nicht für ein Load-Rebalancing.

Martin Cooper, Director of
Technology International,
SolidFire

Das Resultat: Eine statische Speicherung schafft eine ungleiche Lastverteilung zwischen Storage-Pools, RAID-Sets und einzelnen Speicherplatten. Eine effiziente und ausgewogene I/O-Lastverteilung und Kapazitätszuweisung kann in diesem Szenario nur der Storage-Administrator manuell vornehmen, oft auf Basis von Excel-Tabellen.

Beim QoS-Ansatz von SolidFire werden im Unterschied dazu die Daten gleichmäßig auf allen Platten im Cluster automatisiert abgelegt. Wenn man mehrere Platten hinzufügt, werden die Daten wieder im System in mehreren Clustern automatisiert angeordnet, egal ob es sich um neue oder alte Datensätze handelt. Damit wird eine ausgewogene Lastverteilung ohne manuellen Eingriff ermöglicht. Gelangt zusätzlicher Workload in das System, wird dieser wieder gleichmäßig verteilt. Nur mit dieser automatisierten Verteilung können Spitzenlasten, die zu einer Performance-Beeinträchtigung führen, verhindert werden.

Granulare QoS-Kontrolle eliminiert Noisy Neighbors und garantiert Volume-Performance

Um das Problem der so genannten „Noisy Neighbors“, das heißt von Applikationen mit extrem hohem Ressourcenbedarf, die die Performance aller anderen Anwendungen auf demselben System beeinträchtigen, zuverlässig zu beseitigen, ist eine granulare QoS-Kontrolle unverzichtbar. SolidFire setzt dabei auf eine Architektur, die minimale, maximale und Burst-IOPS-Werte für jedes Storage-Volume definiert. Der Burst-Wert beschreibt die maximale Anzahl an I/O-Operationen pro Sekunde, die einem Volume im Bedarfsfall für kurze Zeit zur Verfügung steht. Bei seiner Lösung berücksichtigt SolidFire auch datenintensive Workloads, wechselnde Performance-Anforderungen, unterschiedliche I/O-Muster und die Möglichkeit des Over-Provisionings. Der granulare Ansatz stellt sicher, das für jede Applikation eine garantierte Performance unter allen Bedingungen gegeben ist.

Performance-Virtualisierung ermöglicht unabhängige Bereitstellung von Speicherkapazität und Performance

Herkömmliche QoS-Methoden erlauben bisher nur die Virtualisierung der Kapazität. Zu kurz kommt dabei allerdings die Performance. Sie wird von vielen Variablen wie der Anzahl und Geschwindigkeit der Speichersysteme oder der Menge an Applikationen bestimmt, die dieselben Systeme nutzen.

Die voneinander unabhängige Kontrolle von Performance und Kapazität auf Basis der Performance-Virtualisierungs-Technologie von SolidFire.

Diese Komplexität kann nur durch eine Performance-Virtualisierung beseitigt werden, wobei die Bereitstellung der Leistung von der Bereitstellung der Kapazität strikt getrennt ist. Diese Trennung ermöglicht es zum Beispiel auch, die aktuelle Auslastung eines Systems im Hinblick auf die Speicherkapazität beziehungsweise Performance exakt zu überprüfen. Zudem ermöglicht dieser Ansatz eine unabhängige Zuweisung von Performance beziehungsweise Kapazität an jedes einzelne Storage-Volume innerhalb des Systems.

Nur ein durchgängiger QoS-Ansatz ist somit geeignet, die Storage-Performance vorhersagbar zu garantieren. Eine moderne Storage-Architektur mit integrierten QoS-Features beseitigt dabei nicht nur Performance-Probleme umfassend, sondern sie bietet auch eine schnelle Provisionierung und nicht zuletzt ein vereinfachtes Management.

Über den Autor:
Martin Cooper ist Director of Technology International bei SolidFire in London.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im November 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close