Best Practices für Konfiguration und Administration von SANs

Stabilität und Storage-Zugriff sind entscheidend für den Erfolg von Rechenzentren – egal ob im Storage Area Network oder im Network Attached Storage.

Storage-Zugriff und -Stabilität sind Eckpfeiler für den Erfolg Ihres Rechenzentrums – und damit auch entscheidend für den Geschäftserfolg. Im Grunde ist alles ganz einfach: Server verarbeiten geschäftliche Daten, und die Netzwerk-Hardware sorgt dafür, dass diese von Ort zu Ort gelangen können. Aber alle diese Daten "leben" in einer Storage-Infrastruktur in Form eines SAN oder NAS.

Ausgefallene Server oder Switch-Module können relativ leicht ausgetauscht werden. Aber Datenverlust und Probleme im Bereich des Storage-Zugriffs können die Verfügbarkeit von Anwendungen stören – wie Sand im Getriebe, der irgendwann eine komplette Organisation lahmlegt. Der beste Weg zur Vermeidung von Problemen und zur Aufrechterhaltung eines reibungslosen Storage-Betriebes liegt deshalb darin, Best Practices für SAN-Konfiguration und -Administration zu kennen und zu beachten.

Unverzichtbare Tipps zur Storage-Konfiguration

Ohne Zugriff auf das Storage funktionieren Anwendungen einfach nicht. Das wohl wichtigste Problem für jegliche Konfiguration eines Storage-Systems besteht darin, mögliche Single Points of Failure zwischen der Anwendung und den Laufwerken zu identifizieren und beseitigen. Dies schließt auch die Verwendung redundanter Netzwerk-Interfacekarten (NICs) oder Host-Busadapter (HBAs) in jedem Server und Storage-System mit ein. Auch redundante Switch-Ports für iSCSI (Ethernet) oder Fibre Channel Storage-Traffic und sogar redundante Storage-Systeme, die repliziert werden oder sich gegenseitig synchronisieren, sind denkbar. Fehler an einem beliebigen Punkt sollten zu einem Ausweichen auf einen alternativen Netzwerk-Pfad führen und so die Verfügbarkeit der Storage aufrechterhalten.

Physische Server beherbergen immer mehr virtuelle Maschinen. Damit kann es leicht passieren, dass Storage- und sonstiger Benutzer-Traffic zu Engpässen am Netzwerk-Interface führen. Vorab durchgeführte Workload-Tests sollten dazu genutzt werden, die Netzwerk-Anforderungen seitens des Servers zu bewerten und die Leistung in Form von IOPS und Bandbreite für die Gesamtheit der geplanten Workloads zu analysieren. Dabei kann es durchaus sinnvoll sein, die virtuellen Workloads umzuverteilen und auf diese Weise Engpässe – vor allem an kritischen Servern – zu beseitigen.

Weiterhin besteht die Möglichkeit, zur Bereinigung von Engpässen eine höhere Link-Geschwindigkeit bereitzustellen. Dies kann zum Beispiel über einen Wechsel zu Fibre Channel mit 8 Gbps oder Ethernet-Links mit 10 Gigabit geschehen. Redundante Netzwerk-Verbindungen sind nicht nur aus Stabilitätsgründen äußerst empfehlenswert, sondern können auch ein Load-Balancing der Performance begünstigen. Denn sie stellen nicht etwa nur ungenutzte Pfade dar, die erst dann wichtig werden, wenn ein Failover eintritt: Mehrere Pfade können zur Verteilung der Last des gesamten Datenverkehrs dienen. Dies ist besonders wichtig für Virtualisierungsserver, die zehn, 20 oder sogar noch mehr virtuelle Maschinen aufnehmen. Denn die haben mit einem erheblichen Aufkommen an Storage-Traffic zu kämpfen.

Ein weiteres Mittel zur Lösung von Traffic-Konflikten ist die Auftrennung von Storage- und Benutzer-Traffic. Wenn bereits ein traditionelles SAN vorhanden ist, gibt es hier keinerlei Probleme, denn Fibre Channel und Ethernet existieren bereits in Form von separaten Netzwerken. Der Trick besteht dann lediglich darin, den Traffic in einem iSCSI- oder Fibre Channel over Ethernet (FCoE)-SAN zu isolieren. Die logische Isolation kann normalerweise über ein Einschränken des Storage-Traffics auf ein VPN erreicht werden. Aber dies allein ist noch keine Beseitigung von Engpässen. Wirksamer ist es, separate Netzwerke für den Transport von Benutzer- und Storage-Traffic einzurichten. Das erhöht zwar die Kosten für die Bereitstellung, zahlt sich aber später in Form verbesserter Sicherheit, Administrierbarkeit und Performance aus.

Ein weiterer Faktor, der berücksichtigt werden sollte, sind SAN-Konfigurationen mit LUN. Es ist grundsätzlich keine gute Verfahrensweise, allen virtuellen Maschinen auf einem Server Zugriff auf dieselbe LUN im jeweiligen Storage-Subsystem zu gewähren. Das gilt selbst dann, wenn eine adäquate Fibre Channel- oder LAN-Konnektivität zwischen Server und Storage vorhanden ist – mehrere VMs, die gleichzeitig auf dieselben Laufwerke zugreifen, können gravierende Performance-Probleme auf Storage-Seite auslösen.

Konfigurieren Sie das Storage deshalb so, dass es ein möglichst niedriges Verhältnis von VMs zu LUNs aufweist. Ein Verhältnis von 1:1, wenn also jede VM einer separaten LUN zugeordnet ist, sollte hier wohl am flexibelsten sein. Außerdem eröffnet dies eine Vielzahl möglicher Strategien zur Verwendung von Snapshots.

Vergessen Sie auch nicht, Tiered Storage für Ihre Zwecke zu verwenden – Performance und Kosten können so in ein gutes Gleichgewicht gebracht werden. Ordnen Sie dabei besonders geschäftskritische VMs den schnellsten Plattenspeichern mit der höchsten Performance zu. Im Gegenzug können Sie alltägliche VMs auf billigere Laufwerksgruppen umstellen – ganz so, wie es den Bedürfnissen Ihre Organisation entspricht.

Zur Konfiguration von Fibre Channel-Storage gehört auch das Zoning, das grundsätzlich festlegt, inwieweit jede LUN für jeden Server sichtbar ist. Zoning hilft beim Organisieren des Storage und beim Erhöhen der Sicherheit, kann aber bei Virtualisierung zu einem ernsthaften Problem werden – nämlich dann, wenn mittels Live-Migration virtuelle Maschinen zwischen physischen Host-Servern verschoben werden.

Dies gilt zum Beispiel, wenn eine VM auf einem bestimmten Server nur auf bestimmte Storage-LUNs zugreifen darf: Wird diese VM auf einen anderen Server verschoben (möglicherweise aufgrund eines automatischen Workload-Balancings), der nicht derselben Zone angehört, dann kann die VM auf diesem neuen Server nicht mehr arbeiten.  Administratoren stehen dann oft vor einem Rätsel – und nehmen es leider gern zum Anlass, automatische Migration pauschal zu deaktivieren.

Die wichtigsten Verfahren zur Storage-Administration

Die Administration von Storage bei einer Migration oder Implementierung sollte stets von einer klaren Performance-Baseline für eine als „gesund“ bekannte SAN-Konfiguration ausgehen. Verwenden Sie Tools, um die lang- und kurzfristige Performance zu überwachen und mit der Baseline abzugleichen. Auch Anomalien in der Storage-Performance, die nur von kurzer Dauer sind, können ein Hinweis auf eine unvorhergesehene Änderung oder einen Fehler sein. Sie sollten möglichst zeitnah untersucht und gegebenenfalls korrigiert werden. Langfristige Änderungen in der Storage-Performance sind eher eine Folge von Wachstum. Mehr Benutzer, mehr Anwendungen und schwankende Bedarfe aufgrund von sich wiederholenden Geschäftszyklen können die Ursachen dafür ein. Die Beobachtung der langfristigen Performance-Änderungen dient oft als Basis für die Storage-Kapazitätsplanung.

Thin Provisioning wird idealerweise dazu genutzt, LUNs zu erstellen, die logisch größer sind als die ihnen physisch zugewiesene Speicherkapazität. So kann ein Administrator  beispielsweise mit einem SAN mit 2 Teraybte mehrere 2-TB-LUNs für virtuelle Maschinen oder nicht-virtuelle Anwendungen einrichten. Dies ist eine wichtige Technologie, die zudem hervorragend funktioniert – solange die LUNs nicht komplett vollgeschrieben sind. Wenn dies passieren sollte, können Anwendungen abstürzen und Daten verloren gehen. Deshalb müssen Administratoren beim Thin Provisioning von LUNs Fingerspitzengefühl zeigen und gegebenenfalls zusätzliches physisches Storage für die jeweilige LUN zur Verfügung stellen.

Und schließlich: Erwägen Sie alle Faktoren, die einen spürbaren Einfluss auf den Storage-Bedarf haben können. In virtuellen Rechenzentren ist die unkontrollierte Bereitstellung von VM-Instanzen oder ein "Wildwuchs" an virtueller Maschinen das größte Problem in Bezug auf Storage-Verschwendung. Jede einzelne VM beansprucht Platz für ihr Image und zusätzlichen Platz für den Schutz der Daten über Snapshots oder externe Datenreplikation.

VM-Wildwuchs kann deshalb sehr schnell dazu führen, dass die zur Verfügung stehenden Storage-Ressourcen erschöpft sind. Organisationen können das Wachstum von VMs dadurch in den Griff bekommen, dass sie nur einer kleinen Zahl von Administratoren die Berechtigung einräumen, neue virtuelle Maschinen zu erstellen. Richtlinien, die eine Begründung für die Existenz der jeweiligen VM fordern und deren Lebenszyklus verfolgen, tragen ihr Übriges dazu bei.

ÜBER DEN AUTOR: Stephen J. Bigelow verfügt über mehr als 15 Jahre Erfahrung als Technik-Autor in der PC-/Technologiebranche. Er hat einen Bachelor-Abschluss in Elektrotechnik und ist zertifiziert als CompTIA A+, Network+, Security+ und Server+. Neben hunderten von Artikeln hat er mehr als 15 Bücher zur Fehlerbehebung bei Computern verfasst.

Erfahren Sie mehr über SAN-Management

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close