vectorfusionart - Fotolia

Diese Faktoren müssen Sie beim Aufbau einer Private Storage Cloud berücksichtigen

Der Aufbau einer Private Storage Cloud erfordert ein sorgfältiges Vorgehen. Wir zeigen die optimale Herangehensweise, um problemlos einzusteigen.

Storage as a Service hat sich in den letzten Jahren beachtlich weiterentwickelt. Heutzutage bieten Public Clouds wie Amazon Web Services und Microsoft Azure On-Demand-Modelle für Objekt-Storage mit interner und externer Konnektivität. Ebenso gibt es Angebote für File und Block Storage für die interne Zuweisung an Rechnerinstanzen.

Diese operative Flexibilität und Agilität wäre auch sehr interessant für das firmeneigene Rechenzentrum, wenn die traditionelle Storage an Grenzen stößt.

Wie profitiert man nun von diesen Vorteilen und baut eine interne private Storage Cloud auf? Für den Anfang sollte man sich klarmachen, was eine Cloud eigentlich ist. In der Standarddefinition sollte eine Cloud folgende Charakteristiken aufweisen: Erstens Elastizität für schrumpfende und wachsende Ressourcen, zweitens Bereitstellung als Service abstrahiert von der physischen Hardware, drittens ein Multi-Tenancy-Modell, um verschiedene Clients zu unterstützen, viertens Zugriff on-Demand, um Ressourcen ohne manuelle Eingriffe zu erhalten und fünftens Berichts- und Abrechnungsfunktionen, um die tatsächlich verbrauchten Einheiten zu messen und Rechnungen zu erstellen.

Auch eine Private Storage Cloud sollte alle diese Funktionen aufweisen. Die Anwender in der Firma sollten Storage-Kapazitäten abrufen können, ohne sich darum zu kümmern, auf welche Weise sie diese erhalten. Herkömmliche Service-Kataloge, die bisher meistens auf physische Ressourcen ausgerichtet waren (wie etwa Festplattengeschwindigkeit), müssen neu geschrieben werden und Serviceleistungen berücksichtigen. Dazu gehören bei Storage IOPs, Datendurchsatz, Latenz, Datenverfügbarkeit und Resilienz.

Multi-Tenancy ist wichtig, um Instanzen getrennt voneinander abzusichern und Leistung zuzuweisen. Sicherheitsfunktionen sollten dafür sorgen, dass die Daten eines Nutzers nicht für einen anderen sichtbar sind. Quality of Service (QoS) stellt sicher, dass die Leistung gleichbleibt, egal wie sehr das System belastet ist. Der On-Demand-Zugriff erlaubt es Anwendern, Ressourcen abzurufen, ohne dass die Administratoren eingreifen müssen.

Berichte müssen auf einer granularen Stufe den tatsächlichen Verbrauch, entweder nach einzelnen Nutzern oder Abteilungen.

So schaffen Sie Elastizität

Für Elastizität als erster Punkt auf unserer Liste gibt es zwei Szenarien. Ersten aus Anwendersicht die Fähigkeit, ihre Nutzung auszuweiten oder zu beschränken. Aus der Sicht des System-Administrators gehört die Möglichkeit dazu, bei höherer Nachfrage mehr Infrastruktur heranzuziehen. Manchen Leuten macht es Sorgen, dass Anwender die ausgerollten Ressourcen nicht nutzen, wenn sie sie ohne weiteres zurückgeben können. In der Praxis kommt das aber selten vor.

Die Herausforderung liegt darin, dass man auf eine höhere Nachfrage mit neuer Hardware im Rechenzentrum reagieren muss, während man sich gleichzeitig an vorgegebene Technologielebenszyklen halten muss, ohne die Anwendungsverfügbarkeit zu beeinflussen.

Dies zu erreichen ist zugleich Handwerk und Wissenschaft für die meisten IT-Abteilungen, die im Gegensatz zu Amazon und Microsoft nur über begrenzte Mittel verfügen. Man muss Kompromisse eingehen und korrekt vorhersagen, wann höhere Ansprüche auch Ausgaben rechtfertigen.

Handwerkliches Geschick ist gefragt, wenn es darum geht, die einzelnen Geschäftsbereiche einzubeziehen, um zukünftige Projekte zu planen und den tatsächlichen Storage-Bedarf zu ermitteln. Wenn die IT-Abteilung hier echte Einblicke erlangen kann, kann der Bedarf eingeplant werden, vor allem, wenn es um seltener abgerufene Leistungen wie Hochleistungs- oder Objekt-Storage geht.

Die Wissenschaft kommt ins Spiel, wenn Informationen über das Storage-Wachstum ermittelt werden sollen. Viele IT-Umgebungen verwenden Thin Provisioning, das heißt, die physische Storage-Kapazität wird wachsen, wenn Daten in einen vorgegeben Raum geschrieben werden. Weil die reservierte Kapazität anfangs kaum voll genutzt wird, werden die Dateisysteme und Objektspeicher nach und nach durch Schreibvorgänge der Anwendungen gefüllt werden. Beispielweise wird ein TB Kapazität am ersten Tag nur mit 50 GB beschrieben und ist für eine Nutzungsdauer von drei Jahren ausgelegt. Dadurch wird es sehr wichtig, Tools zur Verfügung zu haben, die den tatsächlichen Storage-Verbrauch genau messen und daraus realistische Vorhersagen ableiten.

Zusätzlich erfordert die Bereitstellung neuer Hardware Zusammenarbeit mit den Herstellern in Bezug auf Lieferzeiten, Bereitstellung und Konfigurationsdauer. Im Unternehmen muss sich die IT-Abteilung um diese Dinge kümmern, die in der Cloud ein Service-Provider übernehmen kann.

Die richtige Plattform wählen

Die richtige Plattform ist ein Schlüsselfaktor, um neue Hardware effizient auszurollen. Scale-out-Architekturen sind hier gegenüber Scale-up im Vorteil, weil damit einfach zusätzliche Hardware zur bestehenden Konfiguration hinzugefügt werden kann, um die Kapazität auszubauen.

Die meisten modernen Scale-out-Produkte (Objekt und File Storage) ermöglichen eine Art der Ausbalancierung mit der Neuverteilung der Daten, um die Zusatzkapazität optimal zu nutzen. Bei monolithischen Scale-up-Strukturen stößt man eher an Grenzen der Skalierbarkeit, was die Verwaltung erschwert. Noch schwerer wird es bei älteren (Legacy) Storage-Systemen, bei denen ein natürliches Load Balancing nicht vorgesehen ist. Hier kommt es besonders auf sorgfältiges Design an, um ein Load Balancing in der Verteilung der logischen Ressourcen über die physische Hardware hinweg zu erreichen. Viele diese Plattformen haben aber Funktionen, um Logical Unit Numbers (LUNs) in der Storage-Plattform zu bewegen, was die Sache etwas vereinfacht.

Multi-Tenancy und QoS sind Schlüsselfaktoren, wenn es um die Auswahl einer private Cloud geht. Cloud Service Provider (CSPs) bewerten die Leistung nach IOPs und Datendurchsatz, etwas weniger nach I/O Latenzen. Diese Leistungsstufen sind für Anwender verfügbar, egal wie stark ausgelastet der CSP ist. Bei traditioneller Storage ist das anders. QoS wird deshalb wirklich wichtig, entweder als Tool, um den Nutzern die beantragte Leistung zu bieten oder sie einzuschränken auf das, was sie tatsächlich bezahlt haben.

Schnittstellen erforderlich

In den letzten Jahren hat es eine kleine Revolution im Storage Management gegeben. Traditionell wird Storage über Benutzeroberflächen oder Befehle in der Kommandozeile (CLI) gesteuert. Die CLI-Steuerung ermöglicht Automatisierung zur Implementierung von Storage über Skripte. Aber diese Skripte müssen erst einmal geschrieben werden und das kostet Zeit.

Mittlerweile setzen die Anbieter auf Schnittstellen (APIs), um Storage automatisch zu verwalten. Auch die Konfigurationsdateien können nun leicht extrahiert werden, zum Teil mit Maßangaben im Detail. Mit einem oder zwei API-Aufrufen kann Storage auf Hosts verteilt werden. Einige Plattformen setzen auf native APIs, während andere Wrapper um bestehende API Tools herumgebaut haben. Es ist wichtig, dass APIs, CLIs und Benutzeroberflächen harmonisch zusammenarbeiten, um Konflikte zu vermeiden.

Auf den Workflow kommt es an

Das letzte Puzzleteil besteht darin, Private Cloud Storage über einen Workflow-Prozess anzubieten. Wenn Nutzeranfragen hereinkommen, müssen diese über einen Prozess abgewickelt, validiert und implementiert werden. In der Public Cloud sorgt hierfür die Vorlage einer Kreditkarte oder eines anderen Zahlungsmittels. Danach werden die Dienste über ein Webportal oder eine API bereitgestellt.

Im eigenen Unternehmen sind eher noch manuelle Anfragen üblich, um Storage-Ressourcen zu beantragen, die in Service Tickets festgehalten werden. Der Eigentümer des Tickets muss sicherstellen, dass seine Anfrage mit den Vorgaben der Fachabteilung übereinstimmt.

In der Private Cloud ist es das Ziel, solche Vorgänge möglichst zu automatisieren. Mit Tools wie VipR von Dell EMC oder Hitachi Automation Director ist die Einrichtung von automatischen Workflows möglich.

Der Fachabteilung muss von der IT eine konkrete Rechnung gestellt werden, um zu verhindern, dass unbegrenzt Storage-Ressourcen abgerufen werden. Dafür müssen aber möglicherweise die internen Finanzpraktiken geändert werden.

Möglichkeiten mit OpenStack

Über das eigentliche Storage-Umfeld hinaus kann Automation mit Private Cloud Frameworks wie OpenStack erreicht werden. Anfangs war bei OpenStack keine persistente Storage vorgesehen und deshalb wurden Projekte gestartet, die bestehende Storage Arrays integrieren können. Cinder geht mit Block Storage um und automatisiert die LUN-Verwaltung, während Manila dasselbe für File Storage erreicht und Swift eine API für Objekt-Storage bereitstellt. Viele Storage-Anbieter bieten mittlerweile Plug-ins für OpenStack. 

Integration der Public Cloud

Auf mittlere Sicht wird es kein Ent­we­der-oder bei Private und Public Cloud geben, sondern ein hybrides Mischmodell zwischen beiden. Der Bedarf, Daten zwischen Clouds hin- und herzubewegen, wird damit steigen. Die Private Cloud erhält damit bessere Verfügbarkeit und Schutz mit Data Protection und Backup, Lastenausgleich und Archivierung.   

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

VMware-AWS-Integration: Die Lücke zwischen Private und Public Cloud überbrücken.

Private-Cloud-Studie: OpenStack mit geringeren Gesamtkosten als die Public Cloud.

Cloud-Strategien zur App-Portabilität zwischen Public, Private und Hybrid Cloud.

Vier oft übersehene Kostenfaktoren bei der Migration in die Private Cloud.

Artikel wurde zuletzt im Januar 2017 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Private Cloud

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close