Sechs Tipps, mit denen Sie die Storage-Performance verbessern

Die Performance von Storage-Systemen leidet nur allzu oft unter Flaschenhälsen. Mit diesen Best Practices verbessern Sie die Storage-Performance.

Dieser Artikel behandelt

SSD

ÄHNLICHE THEMEN

Das Finden und Beheben von Performance-Flaschenhälsen war noch nie einfach. Storage-Architekten überwachen Storage-Arrays, das Netzwerk, Hosts und Hypervisoren andauernd und wollen herausfinden, welche Komponenten für schlechte Performance verantwortlich sind. Im Anschluss versucht man dann ein Heilmittel für diese Performance-Flaschenhälse zu finden. Durch immer dichtere Server-Virtualisierung kann ein einzelner Host inzwischen dutzende virtuelle Server betreiben. Diese sind meist mit Flash-Storage ausgestattet und weisen deswegen so gut wie keine Latenz auf. Aus diesem Grund ist oftmals das Storage-Netzwerk der Flaschenhals. Darüber hinaus müssen sich Storage-Architekten häufig zwischen Performance und Kapazität entscheiden, wobei die Optimierung des einen Bereichs in der Regel den anderen negativ beeinflusst.

Um die Schuldigen in Bezug auf schlechte Performance in realen Storage-Umgebungen zu finden, haben wir mit verschiedenen Storage-Architekten gesprochen, die uns Einblicke zu spezifischen Problemen bezüglich der Storage-Performance gegeben haben. Im Folgenden finden Sie eine Zusammenfassung der Ergebnisse.

Es sei allerdings darauf hingewiesen, dass die höhere Performance seinen Preis hat. Das kann sich sowohl in erhöhten Anschaffungs- als auch Betriebskosten niederschlagen. Selbst wenn Sie nur mittlere Performance-Verbesserungen erreichen wollen, könnte das die Anschaffung von vielen teuren Festplatten bedeuten. Somit brauchen Sie möglicherweise auch mehr Platz im Data Center, womit wiederum sowohl die Strom- als auch die Klimatisierungskosten steigen.

1. Bei der Storage-Performance dreht sich alles um I/O

In Sachen Storage ist I/O mit Abstand der größte Flaschenhals. Die meisten Storage-Architekten verwenden den größten Teil ihrer Zeit darauf, das schwer zu fassende und sich dauernd in Bewegung befindliche Storage-I/O-Ziel zu jagen. Dabei wächst nicht nur die Daten-Menge rasend schnell an, und wir sprechen hier immerhin von einem Zuwachs um mehr als 60 Prozent. Kunden tendieren auch dazu, mehr und mehr Daten im selben Backup-Fenster zu sichern. Das Phänomen nennt man auch schwindendes Backup-Fenster. Um immer mehr Daten während des gleichen Backup-Fensters sichern zu können, muss das Storage logischerweise mehr I/O liefern.

Managed Service Provider (MSP), die Backup-, Disaster-Recovery- und Business-Continuity-Lösungen anbieten, machen sich ebenfalls wegen der Backup- und Wiederherstellungs-Performance Sorgen, weil sie sich schließlich an ihre Dienstleistungsvereinbarungen (Service Level Agreement, SLA) halten müssen, die sie mit ihren Unternehmenskunden abgeschlossen haben. Kann der Dienstleister ein SLA nicht einhalten, drohen teils empfindliche Strafen

Um Probleme mit Storage I/O zu adressieren und die Backups aller Kunden durchführen zu können, setzen Storage-Architekten zum Beispiel auf automatisches Storage-Tiering. Damit spielen sie ältere oder die von weniger kritischen Applikationen verwendete Date auf sekundäre oder tertiäre Storage-Tiers. Diese niedrigeren Stufen oder Tiers bestehen in der Regel aus günstigeren Festplatten, beispielsweise mit 7.200 RPM SAS anstelle von 15.000 RPM Fibre Channel HDDs. Die schnelleren Geräte sind also für unternehmenskritische Applikationen und Daten reserviert. Damit wird Storage-I/O im Tier-1-Storage frei, um damit wichtige Daten und Applikationen schneller verarbeiten zu können. Das Herausfinden, welche Applikationen mehr Storage-I/O benötigen und deswegen auf dem schnelleren Tier-1-Storage liegen sollten, und welche das Storage-I/O weniger belasten, gehört zum effizienten Storage-Tiering dazu. Betreiben Sie das Tiering in Echtzeit und verschieben aktive Daten bezüglich Anwender und Applikationen automatisch, wirkt sich das entsprechend positiv auf die Latenz aus. Storage-Tiering kann Ihnen also sehr dabei helfen, positive Resultate in Bezug auf die gewünschte Kapazität, Performance und Verfügbarkeit zu erhalten.

Wegen den relativ geringen Kosten von Cloud-Storage, wo das Gigabyte derzeit bei unter zwei Cent liegt, werden Cloud-Storage-Provider wie Amazon oder Google von fortgeschrittenen Unternehmen und Service-Providern auch oft als sekundäre und tertiäre Storage-Tiers eingesetzt.

Zu den Beispielen I/O-intensiver Applikationen gehören transaktionale Datenbanken, Microsoft Exchange und Desktop-Virtualisierung (Virtual Desktop Infrastructure, VDI). Am anderen Ende der Performance-Skala liegen unter anderem Archive, Backups und so genannte kalte Daten. Die kommen mit weit weniger Storage-I/O aus. Auch Web-Applikationen gehören dazu, so lange man das entsprechende Caching konfiguriert hat.

2. Festplatten-Latenz kann die Storage-Performance negativ beeinträchtigen

Solid-State Drives (SSD) bieten schnelleren Zugriff auf die Daten als normale Festplatten. Sie sind verglichen mit der I/O-Performance herkömmlicher Festplatten bis zu 300 Mal schneller. Weiterhin haben sie auch eine bessere Energieeffizienz, da sie kleiner sind und weniger Strom brauchen. Auch die erreichbaren IOPS (Input / Output Operations per Second) sind mithilfe von SSDs höher, da diese Datenträger wesentlich mehr Interaktionen pro Sekunde als herkömmliche Festplatten durchführen können und die Latenz viel geringer ist. SSDs sind in der Lage, eine sehr hohe Performance für Storage-Systeme zu liefern. Ist das Storage-System allerdings mit Controllern bestückt, die selbst eine hohe Latenz haben und langsam sind, kann dies erneut zu schwerwiegenden Flaschenhälsen werden.

Spielten die Kosten keine Rolle, würden sich die meisten Storage-Architekten wohl für ein All-SSD-Array entscheiden. Eben aufgrund der sehr hohen Performance, die linear skaliert, und wegen der kleineren Bauweise, die sich natürlich positiv auf den physischen Platzverbrauch auswirkt. In der Realität spielen die Kosten allerdings eine große Rolle und viele Firmen wählen deswegen lieber den Weg über günstige, dadurch aber auch enorm viel Platz verbrauchende Storage-Arrays mit herkömmlichen Festplatten. Entsprechende All-Flash-Arrays gibt es zum Beispiel von HP, Violin Memory, Dell oder auch Fujitsu. Nimble Storage dagegen hat vor kurzem ein neues Hybrid-Array vorgestellt, das All-Flash-Performance bieten soll.

Ein Hedge Fonds aus New York hat eine VDI implementiert und dabei festgestellt, dass Storage der größte Flaschenhals war. Im Speziellen ging es um den Boot Storm um 8.30 Morgens, wenn sich alle 140 Angestellten gleichzeitig an der Test-Umgebung anmelden wollten. Das Unternehmen hat mit 240 IOPS pro Desktop für die 140 Arbeitsplätze geplant. Sie haben allerdings sehr schnell festgestellt, dass selbst 10.000 IOPS nicht ausreichten, um die Spitzenlasten damit zu adressieren. Einige der Schlüssel-Charakteristiken von VDI-Workloads sind 80 Prozent Schreibzugriffe, 20 Prozent Lesezugriffe, nicht einschätzbare Zugriffe hinsichtlich Spitzenzeiten sowie kleine und sehr zufällige I/O-Streams. Mit letzterem sind Tastatur und Maus in Echtzeit gemeint. All diese Faktoren setzen sehr hohe IOPS voraus. Der IT-Leiter der Firma hat sofort damit begonnen, SSD-Lösungen einzusetzen. Damit wollte er die Latenz-Probleme in Bezug auf die Festplatten in den Griff bekommen.

Sieht man sich diese VDI-Umgebung heute an, setzt diese auf ein All-SSD-Array als primäres Storage. Damit kann man nun erfolgreich 1400 virtuelle Desktops in einer produktiven Umgebung betreiben. Als positiven Nebeneffekt der SSD-Lösung freut sich die Firma über die verbesserte Energieeffizienz im Data Center. Man braucht weniger Platz und weniger Strom.

Alternativ lassen sich aber auch durchaus herkömmliche Festplatten verwenden, um DaaS-Angebote (Desktop as a Service) auszuliefern. Um die Performance in den Griff zu bekommen, müssen dann allerdings einige fortgeschrittene VDI-Funktionen deaktiviert bleiben, beispielsweise nicht-persistente Desktops oder Thin Provisioning.

Viele Unternehmen nutzen Solid-State-Storage in erster Linie in hybriden Implementierungen, in denen Flash nur für warme oder heiße Daten und Workloads eingesetzt ist. Weiterhin verwendet man Flash in virtuellen Umgebungen, um transaktionale Workloads und andere Nischen-Applikationen zu betreiben. Dazu gehören Big-Data-Analysen, PostgreSQL-Datenbanken und High Performance Computing. Allerdings können Ihnen auch die erfahrensten Storage-Architekten nicht sagen, welche Applikationen an welchen Tagen heiß sind.

3. Stellen Sie sicher, dass das Storage-Netzwerk mit dem Traffic umgehen kann

Ohne ein gutes Storage-Netzwerk erreichen Sie mit hoher Wahrscheinlichkeit keine gute Storage-Performance. Sowohl Port-Art und -Geschwindigkeit als auch die Anzahl der Netzwerkanschlüsse haben dabei Einfluss auf die Storage-Performance. Das gilt vor allem auch dann, wenn sich diese Ports Pfade oder die Rückwandplatine von Netzwerk-Switchen teilen. Solche Szenarien können dazu führen, dass Frames und Pakete verworfen werden, was durch die anhaltenden Übertragungsversuche wiederum zu einer Reduktion der Storage-Performance führt. Sie können die Performance daher oftmals signifikant verbessern, indem Sie schnellere Netzwerkverbindungen, -Schnittstellen oder -Ports verwenden. Auch die Änderung des Pfades wirkt sich möglicherweise positiv aus.

4. Verteilen Sie die Workloads über die Storage-Tiers

Daten lassen sich über verschiedene Storage-Tiers verteilen. Dabei können sich die Storage-Systeme lokal im eigenen Rechenzentrum, in einer Außenstelle (remote) oder in der Cloud befinden. Storage lässt sich außerdem auch innerhalb desselben Systems abstufen. Dabei sollten Sie je nach Anforderung entsprechende Medien für große Kapazitäten oder bestmögliche Performance verwenden. Das automatische oder manuelle Verschieben der Daten gleicht dann die Workload-Verteilung aus, was wiederum der Performance des kompletten Storage-Systems zu Gute kommt.

NAS-Array-Anbieter (Network Attached Storage) verkaufen Ihnen liebend gerne zusätzliche Festplatten-Kapazitäten. Allerdings entpuppen sich dabei oftmals die Array-Controller als Flaschenhals des Storage-Systems. Herkömmliche NAS-Arrays erlauben kein Skalieren der Controller-CPU für ein bestimmtes Daten-Stück oder eine Workload, daher könnten diese hinter dem Controller aufgehalten werden.

Auch ungenügende Festplattenkapazität kann negativen Einfluss auf das Storage haben. Das gilt vor allen Dingen in virtualisierten Umgebungen. Storage-Architekten versuchen ständig, die richtige Balance zwischen Über- und Unterdimensionierung des Storage-Systems zu finden. Caching kann dabei möglicherweise auch bei der Verbesserung der Storage-Performance und –Effizienz helfen, da Sie so unter Umständen zusätzliche Server und Storage-Hardware vermeiden können.

5. Die Server-Performance hat möglicherweise Einfluss auf das Storage

Ungenügende Rechenleistung und Arbeitsspeicher des Servers kann sich ebenfalls negativ auf die Performance des Storage-Systems auswirken. Hintergrund-Prozesse wie zum Beispiel der Wiederaufbau von Festplatten, Festplatten-Parität, Partitionierung von Datenbanken und Bereinigung von Daten kann die Storage-Performance auf Server-Ebene aber ebenfalls ausbremsen.

Auf der anderen Seite brauchen sehr schnelle Server sehr schnelle I/O-Pfade, Netzwerke und Storage-Systeme. Eine ineffiziente Nutzung von Storage- und Server-Cache hat womöglich negative Auswirkung auf die Performance des Storage-Systems. Das Management von Arbeitsspeicher und Cache ist damit ein wichtiger Teil der Prozedur, eine bessere Storage-Performance zu erreichen.

6. Performance-Flaschenhälsen auf der Spur

Verfolgen Sie entsprechende Metriken zur Storage-Performance, dann können Sie dadurch effizient die Flaschenhälse der Storage-Performance erkennen und eliminieren. Diese Metriken erhalten Sie durch gründliche Tests und so können Sie auch feststellen, ob Sie Ihre Storage-I/O-Ziele auch erreichen. Außerdem helfen sie Ihnen beim Monitoring und bei der Erkennung von Latenzen und ähnlichem.

Alle unsere Storage-Spezialisten waren sich darin einig, was eine der besten Methoden für die Optimierung der Storage-Performance ist: Halten Sie sich an die vom Anbieter zur Verfügung gestellten Best Practices. Sie sollten das Storage-Array, die Netzwerk-Nodes und den Daten-Speicher so konfigurieren, wie es der Anbieter empfiehlt. Zudem ist es nie verkehrt, die Hardware-Kompatibilitätsliste des Herstellers in Augenschein zu nehmen. Somit stellen Sie sicher, dass Ihre Peripheriegeräte auch optimal mit Ihrem Storage-System zusammenarbeiten.

Über den Autor:

Ashar Baig ist Präsident, leitender Analyst und Consultant bei Analyst Connection. Das Unternehmen fokussiert sich neben anderen IT-Bereichen auf Storage, Server- und Storage-Virtualisierung und Datensicherheit.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Juli 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Solid-State-Speicher

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close