Cloud Storage: Die 5 größten Fehler – und wie man sie vermeiden kann

Probleme beim Wechsel des Storage-Providers müssen rechtzeitig erkannt werden. So lässt sich vermeiden, dass zu viele Fehler und Risiken auftreten.

Eine simple Tatsache vorweg: Wenn sich die Daten eines Unternehmens oder einer Organisation in einer Storage-Cloud befinden, also in der Infrastruktur eines anderen, dann wird man die dabei auftretenden Risiken dem Provider, dem Kunden oder beiden zurechnen können. Beim Wechsel des Storage-Providers sollten die Kunden besonders sorgfältig vorgehen und mögliche Fehlerquellen ausscheiden.

Die Daten durchlaufen auf ihrer Reise zu den Storage-Geräten des Cloud-Providers verschiedene Systeme, und je mehr Stationen es gibt, umso größer wird die Wahrscheinlichkeit sein, dass etwas schief geht.

Um alle Risiken auszuschließen, sollte alles von Anfang an richtig laufen. Aber wenn man sich nicht sicher ist, sollte man zumindest wissen, welches die fünf wichtigsten Dinge sind, die falsch ablaufen können, und was man dagegen tun kann.

1. Cloud als Allheilmittel kaufen

Zu oft werden Daten in die Cloud verschoben, um Geld zu sparen. Vielleicht will man so nur die internen IT-Aufgaben reduzieren, ohne mögliche Folgeprobleme zu bedenken.

Zum Beispiel kaufen viele Unternehmen Cloud Storage in der Hoffnung, ihre Datenhaltung rationalisieren zu können. Das Risiko dieses Vorgehens besteht darin, dass zwei eigentlich getrennte Prozesse – Rationalisierung und Speichern in der Cloud – miteinander kombiniert werden.

Der Schlüssel zu einem erfolgreichen Wechsel zu Cloud Storage ist exakte Vorbereitung.

Eine mögliche Folge kann dann sein, dass ein Problem, das schon in der internen IT bestand, 1:1 in die Cloud exportiert wird. Dort können wegen der mangelnden Vorbereitung Extrakosten entstehen, und die Wahrscheinlichkeit, die eingeschleppten Probleme überhaupt lösen zu können, ist in der Cloud geringer.

Stattdessen muss das Unternehmen klare und allgemein verbindliche Kriterien entwickeln, um Cloud Storage in seine langfristige Strategie zu integrieren. Man sollte sich zum Beispiel fragen: Sind die Speicheranforderungen vollkommen neu bewertet worden, bevor man mit dem Datenversand zum Provider beginnt? 

Hätte nicht eine Neuorganisation des Datenbestands genau so viel oder sogar mehr eingebracht? Hätte man nicht vielleicht mehr aus der bestehenden Hardware herausholen können, bevor man einige oder viele dieser Geräte überflüssig macht? Und hat man ihren Restwert überprüft, als das Cloud Storage in Erwägung gezogen wurde?

Wenn sich die Daten in der Cloud befinden, muss man sie immer noch verwalten und kontrollieren. Solange die IT-Abteilung nicht das Monitoring und Management der Cloud-basierten Daten kontrolliert, besteht die Gefahr, dass die End-User bei auftauchenden Problemen die IT-Mannschaft umgehen und sich direkt an den Cloud-Provider wenden, um eine Lösung zu finden. 

Dies würde ein Monitoring der vereinbarten Service Level Agreements (SLAs) schwierig, wenn nicht unmöglich machen. Das gleiche gilt für bindende kostenorientierte Entscheidungen über die Speicherorte und die Strategie.

Der Schlüssel zu einem erfolgreichen Wechsel zu Cloud Storage ist exakte Vorbereitung. Das bedeutet, man muss alle Daten auflisten, die übertragen werden sollen, eine Topologie aufstellen, bevor die Daten die Cloud erreichen, und man muss genau wissen, welche Daten in die Cloud wandern, welche im heimischen Rechenzentrum verbleiben und wie diese verwaltet werden. Außerdem sollten die Daten priorisiert werden, damit ein eventuell verfügbares Storage-Tiering verwendet werden kann.

2. Den falschen Provider wählen

Wer sich für Cloud Storage entscheidet, kauft einen geschäftskritischen Service. Für den Erfolg ist es entscheidend, dass der ausgewählte Service-Provider den Bedürfnissen und Anforderungen des Unternehmens entspricht – einschließlich der Unternehmensgröße und der Risikobereitschaft.

Wenn der Provider zu den ganz Großen der Branche zählt, wird ein mittelgroßes Unternehmen womöglich nur einen hinteren Platz auf dessen Prioritätsliste einnehmen, egal was auch immer in den SLAs steht. 

Ist man dagegen ein großes Unternehmen, das sich auf einen kleinen Provider verlässt, wird die Geschäftsbeziehung mit großer Wahrscheinlichkeit zu risikoreich ausfallen: Zum einen, weil der Provider nur mit geringer Wahrscheinlichkeit überleben wird, und zum anderen, weil er vermutlich nicht die ganzen Dienstleistungen in der jeweils erforderlichen Qualität liefern kann, die man benötigt. In beiden Fällen wird möglicherweise die IT-Leistung im Vergleich schlechter sein mit dem, was die interne IT-Mannschaft geliefert hätte.

Um die Kontrolle doch nicht ganz zu verlieren, sollte man dafür sorgen, dass die Daten im eigenen Land verbleiben oder zumindest innerhalb der EU.

Hat man einen Provider gefunden, der den eigenen Kriterien entspricht, kommt es darauf an, dessen Zuverlässigkeit auf die Probe zu stellen. Was die Bedürfnisse und Anforderungen des Unternehmens betrifft, sollte eine prinzipielle Überprüfung einen Blick auf die jüngsten Ausfallzeiten des Providers einschließen. 

Würde man in so einem Fall dennoch auf die eigenen Daten zugreifen können, zum Beispiel über einen Disaster-Recovery-Service des Providers? Die Antwort auf solche Fragen sollte in jedem Fall lauten: Der Provider garantiert einen 24/7-Betrieb. Wer bei diesen Fragen keine befriedigenden Antworten bekommt, sollte sich woanders umsehen.

Nutzer sollten sich außerdem vergewissern, dass sie aus einem Vertrag wieder herauskommen, sobald Abweichungen von den vereinbarten Leistungen aufgetreten sind. Die Vertragsbestimmungen müssen in dieser Hinsicht klar und offen sein, einschließlich wasserdichter Abmachungen darüber, wie die Daten im Bedarfsfall ohne besondere Umstände zu einem anderen Provider oder zurück in das heimische Rechenzentrum übertragen werden können.

Es geht im Kern darum, die vereinbarten Dienstleistungen schnell und einfach umändern zu können, ohne dafür Extragebühren zahlen zu müssen.

3. Den falschen Service-Plan wählen

Das kann leicht geschehen. Auch für die allereinfachsten Ansprüche eines kleinen Unternehmens hat der Cloud-Storage-Provider gewöhnlich entsprechende Vorschläge vorformuliert, so dass die Online-Dienste zumindest die vorhandenen Systeme hinsichtlich Performance und Leistungsfähigkeit abdecken.

Jedoch sollte man angesichts der Komplexität der Cloud-Infrastruktur die Vertragsbedingungen und eventuell versteckten Klauseln sehr genau prüfen. Anwender müssen zum Beispiel herausfinden, was die SLAs abdecken und was nicht – das könnten Backup oder Verschlüsselung sein – und dann entsprechend vorsorgen.

Im Besonderen muss man rigoros die eigenen Kapazitätsanforderungen bestimmen und die Kosten verschiedener Szenarios auf Basis der Service-Angebote ausgewählter Provider durchkalkulieren.

Überraschungen bei den Storage-Kosten sind zu vermeiden, so dass man realistisch angesichts zukünftiger Speicherbedürfnisse sein sollte. Die Kosten von Cloud Storage können mit der Zeit höher ausfallen als die von lokalem Storage, obwohl Vorteile wie allgemeine Netzverbindungen und Flexibilität positiv zu Buche schlagen und die Gesamtausgaben wieder mindern.

Es können auch bisher verdeckte Kosten ans Licht kommen, nachdem lokale Speichermöglichkeiten entfernt worden sind. Zum Beispiel haben vielleicht Spezialisten ausrangierte Computer für ihre Arbeit verwendet, die nur mit lokalen Servern und Speichergeräten verbunden waren – dafür unter den neuen Bedingungen Ersatz zu finden, kann sich als zeitaufwändig und kostspielig erweisen. Die Lektion, die man aus so einem Fall ziehen kann: Sich rechtzeitig auch bei den eigenen End-Usern umhören und nicht nur Manager und IT-Fachleute konsultieren.

Der Kunde sollte auf jeden Fall in der Lage sein, schnell, leicht und ohne Geldbußen Service-Pläne zu ändern. Solche Konditionen sollten explizit in den Vertragsbedingungen festgeschrieben sein.

4. Die Kontrolle über die eigenen Daten verlieren

Wenn die eigenen Daten erst einmal das heimische Rechenzentrum verlassen haben, hat man oft das Gefühl, zumindest teilweise die Kontrolle über sie verloren zu haben. Bis zu einem gewissen Grad ist das richtig.

Im schlimmsten Fall hat der Anwender eventuell sogar physisch die Server verloren, auf denen die Daten abgelegt sind. Wenn die Daten zum Beispiel auf Servern in den USA liegen, ist es für amerikanische Regierungsbehörden wie das FBI möglich, die Hardware zu beschlagnahmen. 

Solche Szenarien sind bereits vorgefallen. Unschuldige Unternehmenskunden hatten mit Datenverlusten zu kämpfen, nachdem FBI-Agenten einen ganzen Server-Rack mitnahmen, obwohl es in ihren Nachforschungen nur um eine verdächtige IP-Adresse ging.

Um die Kontrolle doch nicht ganz zu verlieren, sollte man dafür sorgen, dass die Daten im eigenen Land verbleiben oder zumindest innerhalb der EU. Dies sollte obligatorisch sein für einige Informationsarten wie finanzielle oder persönliche Daten.

Man muss ferner sicherstellen, dass nur autorisierte Personen Zugang zu den Daten bekommen. Das bedeutet, den Provider und Angestellte mit unzureichenden Rechten konsequent vom Zugang auszuschließen. Neben der Zugangskontrolle muss man natürlich auch die Daten selbst verschlüsseln.

Ausreichende Bandbreite gehört zu den kritischen Punkten, wenn es um das Verschieben von Daten in die Cloud geht.

Der Schlüssel – im wortwörtlichen Sinne – besteht darin, eine wirksame Strategie für das Management der verwendeten Schlüssel einzurichten. Während es einfach ist, Daten zu verschlüsseln, bestehen die eigentlichen Probleme zum Beispiel darin, wenn Mitarbeiter, die für Ver- und Entschlüsselung zuständig sind, mitsamt ihrem Wissen die Firma verlassen. Und plötzlich steht die Firma alleine da mit Festplatten, die voll mit unleserlichen verschlüsselten Bits sind.

Provider sind außerdem mit Ausfallzeiten konfrontiert – jedem größeren Provider ist das bisher so ergangen. Ausfallzeiten gehören zu den Risiken, die man gegen die Ersparnisse und andere Vorteile aufrechnen muss, die Storage Clouds bringen. 

Schutzmaßnahmen dagegen umfassen intensive Prüfung der Policies und Prozesse des Providers, mit denen er solche Vorfälle ausschließen will – bis hin zu der Vorbereitung eines Provider-Wechsels, wenn man unzufrieden ist. Mehr praxisorientiert hilft es auf jeden Fall, wenn man je nach Risikobereitschaft und Budget in dem Rechenzentrum eines anderen Providers einen gespiegelten Server mit allen Daten einrichtet.

Dies wird jedoch nicht dagegen helfen, wenn das Netzwerk des Providers zusammenbricht. Besser wäre es deshalb, einen Provider auszuwählen, der auch einen Dual Network Link im Angebot hat.

Um die eigene Kontrolle über die Daten wirklich sicherzustellen, sollten Unternehmen nicht davon ausgehen – egal, was passieren mag –, dass der Provider entsprechende Sicherheitsmaßnahmen getroffen hat. Für die eigenen Daten muss man letztendlich auch bei der Auslagerung an einen Provider die Verantwortung übernehmen.

Da der Transport großer Datenmengen über das Netz mit entsprechenden Kosten verbunden ist und auch viel Zeit beansprucht, sollte man auch an diese kostensparende Alternative denken: Sehr große Datenvolumen – gerade bei den ersten Uploads – lassen sich auch per Festplatten und Kurier transportieren.

5. Nicht genug Bandbreite

Ausreichende Bandbreite gehört zu den kritischen Punkten, wenn es um das Verschieben von Daten in die Cloud geht. Die Unternehmen müssen deshalb ihre Bandbreitenanforderungen neu bewerten, um Daten kontinuierlich in beide Richtungen – vom eigenen Rechenzentrum in die Cloud und zurück – ohne größere Einschränkungen zu verschieben.

Handelt es sich um ein kleineres oder mittleres Unternehmen (KMU), wird man wahrscheinlich die feste ADSL-Verbindung mit ihren niedrigen Transportraten kaum aufgeben. Als Alternative dürften sich aber allmählich schnelle Netzverbindungen in großstädtischen Umgebungen durchsetzen, so dass KMUs prüfen sollten, welche Geschwindigkeitsvorteile sich für sie ergeben. Größere Unternehmen sollten mit dem Storage Provider darüber verhandeln, welche schnelleren Netzoptionen für sie verfügbar sind.

Das Netzwerk des Providers sollte idealerweise mindestens so schnell sein wie die Upload-Geschwindigkeit des eigenen Rechenzentrums und darüber hinaus weitere Spielräume übrig haben. Man sollte auch über die eigenen zyklischen oder saisonalen Netzwerkanforderungen Bescheid wissen und deshalb rechtzeitig abklären, zu welchen Zeitpunkten das Netz des Providers besonders belastet ist.

Wenn es trotz aller Planung und Absprachen zu Netzwerkausfällen kommt, sollte man bereit sein, den Provider zu wechseln. Die Bedeutung eines stabilen, verlässlichen Netzwerks kann nicht überbetont werden, da die Unternehmensdaten bei Cloud Storage nur über diese Verbindung erreichbar sind.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im März 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public Cloud

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close