Maxim_Kazmin - Fotolia

Storage-Kapazitätsprobleme lösen

Durch steigendes Datenwachstum entstehen Kapazitätsprobleme bei der Storage-Infrastruktur. Es gibt Wege, vorhandene Kapazitäten besser zu nutzen.

Im ersten Teil unserer zweiteiligen Serie erfahren Sie, wie man bereits mit strategischen Entscheidungen und gutem Daten-Management die internen Speicherkapazitäten optimal nutzen kann.

Kapazität ist gewöhnlich das erste Wort, an das man denkt, wenn man über Speicher redet. Nicht Performance, Zuverlässigkeit, Verfügbarkeit oder Wartung. Datenkapazität ist fast immer der wichtigste Punkt: Wie viel ist noch übrig, und wie schnell wird sie verbraucht sein?

Anders als bei allen anderen Computer- und Netzwerktechnologien wird nur hier bei Speicher etwas verbraucht. Alle anderen werden immer wieder genutzt – auch wenn dabei Grenzen der Auslastung zu beachten sind. Die besondere IT-Prädisposition, auf keinen Fall und niemals irgendwelche Daten zu verlieren, zeigt sich darin, dass Speicher immer wieder neu verbraucht wird.

Für viele IT-Abteilungen muss ein neues Speichersystem über genug Kapazität verfügen, alle bereits in dem Vorgängersystem abgelegten Daten aufzunehmen plus zusätzlich alle jene Daten, die zukünftig während seiner Laufzeit geschaffen und gespeichert werden. Datenspeicher schrumpft niemals zusammen. Er wird dagegen unaufhörlich immer größer. Unabhängig von der jeweiligen Industrie oder Branche, der Unternehmensgröße, dem Virtualisierungs-Niveau oder einer Software-definierten Umgebung bleibt es eine ständige, schwer zu bewältigende Herausforderung, stets ein Stückchen der verbrauchten Speicherrate voraus zu bleiben. Diese Herausforderung wird nicht irgendwann leichter.

Mehr Geräte als jemals zuvor erzeugen zunehmend immer mehr Daten, die gespeichert werden müssen. Das Internet of Things (IoT) verspricht zudem, das Speicherwachstum in rasender Geschwindigkeit zu erhöhen, wobei die meisten dieser Daten unstrukturiert sind. Mit zunehmenden Alter hatten unstrukturierte Daten in der Vergangenheit nur noch einen nominellen Wert, aber Wissenschaftler haben dieses Paradigma abgewandelt: Heute verfügen demnach unstrukturierte Daten über einen hohen Wert für mögliche BI-Ergebnisse (Business Intelligence), die über den Einsatz von analytischen Werkzeugen wie NoSQL oder Hadoop ermittelt werden können und die Vorteile in der Konkurrenz verschaffen. Mit mehr Daten und mehr Anwendungszwecken für diese Daten zeigen sich die Unternehmen jedoch noch immer zurückhaltend darin, mehr aus ihnen herauszuholen.

Speichersysteme haben sich zur hauptsächlichen Technologieebene in vielen Rechenzentren entwickelt. Die Geschwindigkeit des Datenwachstums hat sich nicht abgeschwächt und nimmt sogar deutlich zu. Auf der anderen Seite wachsen die Budgets allerdings nicht.

Um die Sache noch schlimmer zu machen, hat sich sogar die Zunahme der Kapazitätsdichte der Speichermedien verlangsamt. Das Kapazitätswachstum ist bei allen Medien aufgrund von physischen Beschränkungen zurückgegangen. Die Rate der Verlangsamung variiert je nach Technologie – sie ist geringer bei NAND-Flash, aber deutlich sichtbarer bei Festplatten, Tape und optischen Medien.

Diese Entwicklung bedeutet nichts anderes, als dass die Informationstechnologie gezwungen ist, kostengünstige Wege zu finden, um die immer größer werdende Kapazitätsproblematik zu lösen.

Medien mit hoher Kapazität

Obwohl sich die Zunahmen bei den Medienkapazitäten verlangsamt haben, kommen sie noch immer vor. Zum Beispiel muss man sich folgendes vor Augen führen (wobei alle Kapazitäten in „Rohwerten“ angegeben sind): Die größten heute verfügbaren 3,5-Zoll-Festplatten verfügen über acht Terabyte (Seagate) oder zehn Terabyte (WD-HGST); die größten 2,5-Zoll-SSDs haben vier Terabyte (SanDisk, Samsung, Seagate und Toshiba); die größten PCI Express Flash Drives erreichen bis 15,36 Terabytes (Samsung); die größten Custom Form Modules (CFMs) gehen bis zu acht Terabyte (SanDisk); das größte LTO-Tape hat derzeit eine Kapazität von 2,5 Terabyte (alle Hersteller); und das größte Tape-Laufwerk kommt mit 8,5 Terabyte von Oracle.

Speicherschränke mit hoher Dichte nutzen

Ein Weg, Rack- und Bodenplatz zu reduzieren, besteht darin, Speicherschränke mit hoher Dichte zu nutzen. Die High-Density-Regale für 3,5-Zoll-Festplatten (HDDs) gibt es in einer Bandbreite von Drive- und Rack-Unit-Größen (U). Die populärsten haben 4U und bieten Platz für 48, 60, 72, 84 oder 98 Drives. Setzt man 3,5-Zoll-HDDs mit der größten Kapazität von je zehn Terabyte ein, erhält man fast ein Petabyte an Storage in dieser 4U-Einheit.

Es gibt aber Nachteile bei diesen Speicherschränken mit hoher Dichte: Die Drives sind nur von oben zugänglich, was in der Regel eine Leiter erfordert. Und das Gewicht dieser Schränke kann sich leicht auf einige hundert Kilos summieren. Die üblichen Speicherschränke halten solche Gewichte nicht aus. Viele Hersteller bieten deshalb spezielle hydraulische oder ähnliche Konstruktionen an, um das Gleichgewicht der Schränke zu unterstützen. Dies erfordert Extraausgaben und Zeit.

Es gibt auch High-Density-Schränke für Flash Solid-State Drives (SSDs). SanDisk packt bis zu 512 Terabyte (unkomprimiert) in 3U-Regale; Toshiba bringt 192 Terabyte (unkomprimiert) in 2U unter; und HGST legt 136 Terabyte (unkomprimiert) in 1U. Die SanDisk- und die Toshiba-Schränke benötigen ebenfalls einen Zugang von oben. Eine Leiter ist erforderlich, aber das Gewicht ist weniger ein Problem.

Hochkapazitive Medien und High-Density-Speicherschränke einzusetzen, reduziert nicht den Verbrauch an Datenkapazität, aber es reduziert die Anzahl der eingesetzten Systeme sowie der Management- und Support-Infrastruktur, die man für den schrittweisen Konsum dieser Kapazität braucht.

Schluss damit, alles für immer zu speichern

Dies scheint ein einfaches Konzept zu sein, das in Wirklichkeit jedoch sehr wenige IT-Abteilungen umsetzen. Nicht alle Daten müssen für immer gespeichert werden. IT-Mannschaften müssen Policies festlegen, die Aufbewahrungszeiten für verschiedene Datentypen festlegen und für ihre Einhaltung sorgen. Es gibt eine Menge Daten, die im Laufe der Zeit geringen oder gar keinen Wert haben.

Nehmen wir zum Beispiel Videoüberwachung. Videos benötigen viel Speicherplatz. Wie lange müssen Überwachungsvideos gespeichert werden? Eine Woche, zwei Wochen, einen Monat, ein Jahr? Es gibt intelligente IT-Abteilungen, die aufgrund ihrer Policy ihre Videodaten nicht länger als ein paar Wochen oder höchstens einen Monat aufbewahren. Wenn es auf einem besonderen Video etwas von Interesse gibt, werden sie es sehr wahrscheinlich länger speichern.

Nachdrücklich ausgeführte Aufbewahrungsregeln werden den Verbrauch von Speicherkapazität deutlich verlangsamen. Das umzusetzen erfordert Zeit, Kooperation, Energie und Disziplin. Aber wertlose Daten für immer zu speichern, ist einfach nicht intelligent und finanziell vertretbar.

Den Müll wegwerfen

Wie viele wertlose Daten konsumiert aktuell der Speicher eines Unternehmens?

E-Mails, Word-Dokumente, Tabellenkalkulationen, Präsentationen oder Vorschläge und mehr von Angestellten, die schon längst ausgeschieden sind – alle diese Sachen werden pausenlos gespeichert. Haben diese Daten jedoch viel oder überhaupt einen Wert? Warum sind sie immer noch da? Wie viel von dem verbrauchten Speicherplatz entfällt auf persönliche MP3-Dateien, Fotos oder Videos? Es gibt noch viel mehr in dieser Richtung auf den Speichermedien, als sich das die meisten IT-Manager vorstellen können.

Was ist mit den mehrfachen Wiederholungen, Versionen oder Entwürfen von Dateien, Dokumenten, Spreadsheets, Präsentationen oder Preislisten, die alle Speicherplatz beanspruchen und überholt oder obsolet sind? Daten tendieren dazu, sich wie angeklebt festzusetzen. Dieser ineffiziente Speicherkonsum weitet sich noch aus, wenn solche Speicherplätze ausgetauscht werden, weil dieser„Datenmüll“ auch auf den neuen Systemen Platz frisst sowie bei allen weiteren Technologie-Refreshs danach. Mit anderen Worten: Man kauft mehr Speicher, als man eigentlich braucht.

Aber wie findet man diesen Datenmüll? Es gibt mehrere Anwendungen und Services, die unstrukturierte Dateidaten überprüfen und die benötigte Analyse liefern, zum Beispiel Caringo FileFly, Data Dynamics, NTP Software oder Varonis.

Diese Applikationen identifizieren verwaiste Daten, persönliche Musikaufnahmen, Fotos und Videos und alte Daten, die niemand mehr nutzt. Sie können veranlassen, dass diese Daten gelöscht oder zu billigeren Speicheroptionen wie LTFS-Tape, lokalem oder Cloud-basierten Object Storage, Optical Storage und „kaltem“ Cloud-Storage migriert werden. Die Menge an primärem, eingespartem Speicherplatz kann sehr groß sein und wiegt in der Regel die Ausgaben für solche Anwendungen oder Dienstleistungen mehrfach auf.

Älter werdende Daten migrieren

Wie gesagt, tendieren Daten dazu, sich nicht von ihrem Speicherort zu lösen – sie verhalten sich wie festgeklebt. Der erste Speicherort, auf dem neue Daten landen, ist auch derjenige, auf dem sie wahrscheinlich solange bleiben, bis dieses Speichersystem erneuert wird oder ein Upgrade erfährt. Sogar dann werden sie auf einem ähnlichen primären Speicher bleiben. Das kommt einer ungeheuren Verschwendung der teuersten Speicherkapazität gleich.

Der Wert von Daten nimmt mit steigendem Alter ab. Daten sind im Allgemeinen in den ersten 72 Stunden, nachdem sie gespeichert wurden, am wertvollsten und werden dann am meisten verwendet. Der Zugriff auf sie fällt von diesem Punkt aus steil ab. Die Daten werden selten nach 30 Tagen abgerufen und fast nie nach 90 Tagen. Und doch bleiben sie oft auf teuren Speichersystemen noch Monate oder Jahre, nachdem ihr Wert vergänglich geworden ist.

Der hauptsächliche Grund dafür besteht darin, dass das Migrieren von Daten zwischen unterschiedlichen Speichersystemen schwierig und sehr manuell aufwändig und arbeitsintensiv sein kann. Zusätzlich stellt die Migration von Daten oft einen Bruch mit den einmal festgelegten Zugriffsrechten dar, was den eventuellen späteren Zugriff auf sie schwierig gestalten kann.

Hybride Speichersysteme verfügen innerhalb des Arrays über Storage-Tiering, womit sich Daten von teuren, hoch-performanten Speicher-Layern auf billigere, weniger performante Layer auf Basis von anwenderbasierten Policies verschieben lassen. Viele Systeme erlauben nur Datenbewegungen zwischen Speicherebenen auf dem gleichen Array. Einige können auch Daten innerhalb des Arrays und zu externen billigen, weniger performanten Speichersystemen bewegen. Sie nutzen unter Umständen Cloud-Storage wie Amazon Simple Storage Service (S3), Cloud-Storage mit S3-Schnittstellen oder auf einer wesentlich günstigeren Ebene wie LTFS-Tape. Nachdem die Daten bewegt worden sind, wird ein Verweis oder Pointer (Stub) hinterlegt, so dass die Kette der Zuständigkeiten und der Metadaten intakt bleibt. Wenn später ein Anwender oder eine Anwendung verschobene Daten auf den anderen Systemen suchen sollten, werden sie über den Link wieder transparent auf dem ursprünglichen Ort hergestellt. Es dauert nur etwas länger, auf sie zuzugreifen.

Obwohl diese Technologie nicht die Menge an konsumierter Speicherkapazität reduziert, verbessert sie dennoch die Beziehung zwischen Datenwert und Speicherkosten. Bei hybriden Speichersystemen sollte man auch bedenken: Sie sind nicht irgendetwas zwischen Flash- und Festplatten-Speicherebenen und zwischen den Layern von Object Storage, Cloud-Storage oder LTFS-Tape. Es gibt hybride Systeme, die schnellen Flash- und langsamen Flash-Speicher mit größeren Kapazitäten als ihre Speicher-Tiers nutzen. Es gibt andere Systeme, die hoch-performante Festplatten mit kleinem Formfaktor (2,5 Zoll) und Nearline-Platten mit großem Formfaktor (3,5 Zoll) für ihre Speicher-Levels einsetzen. Alle diese Systeme haben gemeinsam, dass sie die Kosten der Speicherkapazität senken, aber nicht die gesamte genutzte Speicherkapazität.

Ferner gibt es Software und Services von dritter Seite (zum Beispiel Caringo FileFly, Data Dynamics oder NTP Software), mit denen man Daten je nach Policy von einem kostspieligerem zu einem günstigeren Speicher-Level bewegen kann. Oder sie werden zwischen Systemen migriert, zum Beispiel von Object Storage zu LTFS-Bandspeicher, wobei Stubs dafür sorgen, dass man Zugang zu diesen Daten bekommt, wenn es nötig wird.

Es bestehen zwei wesentliche Unterschiede zwischen Third-Party-Software und hybriden Speichersystemen. Der erste hat damit zu tun, dass hybride Speichersysteme meistens nur innerhalb des Systems fungieren und in wenigen Fällen mit Object Storage (S3 API). Third-Party-Software arbeitet dagegen zwischen Speichersystemen verschiedener Hersteller, Systemen mit Object Storage (S3 API), LTFS-Tape und so weiter. Der zweite Unterschied besteht darin, dass es die Third-Party-Software dem Speicher-Administrator erlaubt, Datenmüll basierend auf Policys zu löschen oder auszulagern. Anders als hybride Speichersysteme kann Third-Party-Software wirklich die Menge an gespeicherten Daten reduzieren.

Im zweiten Teil der Serie erfahren Sie, welche weiteren Technologien zur Reduzierung und zum besseren Management der Speicherkapazitäten genutzt werden können.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Februar 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Kapazitätsoptimierung von Primärspeicher

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close