Bei Public Cloud Storage drohen erhebliche Kostenfallen

Eine Entscheidung für Public Cloud Storage kann unerwartete Konsequenzen haben. Ein sorgfältiges Vorgehen ist dringend anzuraten.

Die Menge an Unternehmensdaten wächst ständig und es gibt darin große Unterschiede. Das ist eine Herausforderung für Administratoren. Mit technischen Innovationen versucht die IT-Branche dieser Aufgabe gerecht zu werden und das gelingt auch zu einem großen Teil.

Flash Storage kann den Bedürfnissen vom Hochleistungs-Workloads genügen, während Scale-Out-NAS und Objekt Storage für weniger anspruchsvolle Daten mit großer Kapazität gedacht ist.

Wegen diesem Trend hat sich Storage in verschiedene Schichten (Tiers) aufgespalten. Dies hilft, die Total Cost of Ownership (TCO) zu reduzieren. Wir, die Enterprise Strategy Group, haben dazu eine Untersuchung durchgeführt. Das Ergebnis: Die Hälfte aller Unternehmen, die Solid-State-Disks (SSDs) für Storage verwenden, meldet eine verringerte TCO. Auch mit Objekt Storage kann man Kosten effektiv reduzieren. Die Strategie mit unterschiedlichen Storage Schichten funktioniert also.

Nicht alle Storage-Schichten sind gleich

Wenn man das Konzept der Storage-Schichten erweitert und über das eigene Rechenzentrum hinausblickt, stellt sich die Frage, ob Public Cloud Storage für sekundäre Storage und Archivdaten eignet ist. Die Überlegung ist, dass stagnierende Daten nicht das eigene Rechenzentrum belasten sollen, sondern besser ausgelagert werden sollen. Dies scheint auf den ersten Blick logisch und macht in der Theorie Sinn, aber wenn man nicht aufpasst, tappt man in eine Kostenfalle.

Das Schichtenmodell kann nur richtig funktionieren, wenn die Daten dem für sie passenden Tier zugeordnet werden. Aber bei vielen Workloads ist das nicht der Fall, und zwar aus den folgenden Gründen. Erstens bringt man die Art des Datenzugangs oft nicht so einfach in Übereinstimmung mit dem richtigen Storage Tier. Zweitens bleiben die Datenzugangsraten in vielen Fällen nicht konstant. Drittens fehlen häufig genaue Daten über die Performance-Anforderungen verschiedener Workloads.

In On-Premise-Umgebungen hat eine falsche Zuordnung für gewöhnlich nur minimale Auswirkungen. In der Public Cloud können dagegen die Kosten durch die Decke schießen. Das liegt daran, dass die physische Separation von Daten, mit der die Anbieter von Public Cloud Storage arbeiten, erhebliche Latenzen erzwingt, wenn Daten zwischen lokalen und Off-Premise-Ressourcen hin- und her bewegt werden. Das bedeutet, dass die Kosten für ein Storage Tier erheblich steigen, wenn auf ein Daten Set plötzlich unerwartet viele Zugriffe erfolgen.     

Unglücklicherweise passiert so etwas viel häufiger als gedacht. Ein Storage Tier in der Cloud kann so viel mehr kosten als im eigenen Rechenzentrum. Budgetverantwortliche finden das nicht lustig und setzen die Administratoren unter Druck. Dann muss die Frage geklärt werden, wie viel eine Rückmigration der Daten in das eigene Rechenzentrum kostet, wo möglicherweise nicht mehr genug Ressourcen vorhanden sind.

Es gibt aber eine Reihe von Optionen, mit denen dieses Albtraumszenario verhindert werden kann. Es geht darum, die Workload-Anforderungen vor einer Migration besser zu verstehen und die Datenbewegung über das WAN zu vereinfachen.

„Das Schichtenmodell kann nur richtig funktionieren, wenn die Daten dem für sie passenden Tier zugeordnet werden.“

Scott Sinclair, Enterprise Strategy Group

xxx

Die Investition in Tools kann sich auszahlen, die helfen, die Leistungsanforderungen von Anwendungen einzuschätzen. In vielen Produkten für Software definierte Storage (SDS) sind solche Werkzeuge bereits integriert. Die SDS Technologien können zudem verschiedene Storage-Ressourcen On- und Off-Premise virtualisieren und aggregieren.

Auch hybride Cloud Services sind hilfreich, die mit einem Hochleistungs-Cache Off-Premise-Ressourcen virtualisieren. Die Technologie kann die Zahl der erforderlichen Datentransaktionen im WAN erheblich reduzieren.

Auch sollte man einen Blick auf neue On-Premise Angebote werfen, bevor man den Sprung in die Public Cloud wagt. In diesem Jahr sind neue Hochleistungs-All-Flash-Systeme auf den Markt gekommen, die sehr hohe Kapazitäten zu einem geringen Preis bieten.

Datentransaktionen über das WAN bremsen die Performance aus und verewigen die Architekturentscheidungen für die Cloud. Sicherlich gibt es auch Vorzüge bei Public Cloud Storage, aber übereilte Entscheidungen sollten vermieden werden, weil sie zu Problemen und hohen Kosten führen können. Dies kann man umgehen, wenn man in Technologien investiert, die Workloads besser einschätzen  oder in hybride Umgebungen, die größere Flexibilität bieten.    

Über den Autor:
Scott Sinclair ist Analyst der Enterprise Strategy Group.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Compliance: Auch Cloud-Storage braucht eine räumliche Abschirmung.

Neu bei Cloud-Storage-Trends: die Multi Cloud.

Cloud-Storage für Internet-of-Things-Daten auswählen.

Im Blickpunkt: Anwendungsfälle und Strategien für Cloud Storage.

Artikel wurde zuletzt im November 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public Cloud

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close