zentilia - Fotolia

Wissenswerte Fakten über Scale-Out-Storage

Scale-out-Storage ist eine Lösung, mit der sich die Speicherumgebung flexibler und hoch-skalierbar machen lässt, ohne mehr Komplexität hervorzurufen.

Dieser Artikel kann auch im Premium Editorial Download gefunden werden: Storage-Magazin: Scale-Out NAS: Datenmengen elegant bewältigen:

Seit einigen Jahren setzt sich der Trend des Scale-out-Storage in den Rechenzentren durch. Diese Methode der Skalierbarkeit durchbricht die Beschränkungen der Hardware und erlaubt flexiblere Ressourcenerweiterung. Das enge Korsett einer Scale-up-Strategie kann damit abgelegt und durch eine agilere Infrastruktur ersetzt werden, woraus sich wiederum neue Vorteile für die Speicherumgebung ergeben.

Die Basis von Scale-out Storage und seine Vorteile

Der wesentliche und entscheidende Faktor, der zur Skalierung der Speichertechnik (Scale-out-Storage) führte, waren das Aufkommen und die starke Zunahme unstrukturierter Daten. Nehmen wir das Beispiel Social Media: Für nur eine einzige beliebte Webseite müssen Millionen von Fotos verwaltet und so vorgehalten werden, dass der Nutzer sie jederzeit ohne lange Ladezeiten abrufen kann.

Die Grundidee von Scale-out Storage besteht darin, die Speicherung und den Abruf großer Datenmengen zu vereinfachen und zu beschleunigen, um aus historisch gewachsenen „tiefen“ Archiven möglichst schnell und einfach Wissen sowie Informationen zu extrahieren. Soll all das in der Cloud geschehen, sind damit Ansprüche an Sicherheit und Mandantenfähigkeit gebunden, die von traditionellen Speicherlösungen nicht standardmäßig erfüllt werden. Mit neuartigen Lösungen wie Active Archive von HGST ist es aber möglich, all diesen Anforderungen nachzukommen und archivierte Daten für die Wertschöpfung einzusetzen. Kalte Daten werden – unter Erfüllung der genannten Voraussetzungen – dabei dank einer vollständig integrierten Speicherlösung respektive einem Speichersystem mit S3-konformen Schnittstellen, die eine einfache Anbindung an S3-basierte Anwendungen ermöglichen, in den aktiven Speicher überführt.

Maßgebliche Schlüsseltechnologien für eine erfolgreiche Skalierung der Speichertechnik

Zu den unbedingt erforderlichen Technologien zählen Skalierungstechnologien wie kosteneffiziente Speichermedien (HDDs), nahtlose Skalierbarkeit bis in die Bereiche von mehreren hundert Petabyte, selbstheilende Technologien, Erasure Coding zur Gewährleistung der Dauerhaftigkeit von Daten sowie Schnittstellen, die als Standard oder De-facto-Standard gelten. Active Archive von HGST erfüllt diese technologischen Voraussetzungen, hinzu kommt noch eine branchenführende Datenhaltbarkeit von 99,9999999999999 Prozent. Das sind vier Größenordnungen mehr als bei einigen bekannten Public-Cloud-Angeboten.

Anbieter in diesem Marktsegment

Bei den öffentlichen Anbietern führen unter anderem Amazon S3, Google und Microsoft Azure. Auch eine Reihe traditioneller Speicheranbieter sowie Hard- und Softwareanbieter mit disruptiven Innovationen sind in das Segment eingestiegen. HGST gehört zu einer wachsenden Schar von Storage-Anbietern, die sich der Nachfrage nach integrierten Speicherlösungen anpassen. Beispielsweise haben wir unsere heliumgefüllte 3,5-Zoll-Enterprise-Festplatte – die HDD mit der derzeit größten Kapazität und dem niedrigsten Stromverbrauch auf dem Markt – in ein speziell entwickeltes Objektspeicher-Rack integriert. Auf diese Weise bieten wir in einer benutzerfreundlichen Lösung sowohl niedrigere Gesamtbetriebskosten als auch potenziell Zugriff auf hunderte von Petabyte innerhalb desselben Namensraums. Diese Lösung wurde speziell für tiefe Datenanalysen, den verteilten Zugriff auf Inhalte und jede erdenkliche Arbeitslast mit unstrukturierten Daten entwickelt.

Leistungsvergleich von Scale-out Storage zur traditionellen Speicherinfrastruktur

Objektspeicherbasierte skalierte Speichertechnik hat spezielle Leistungsmerkmale und Fähigkeiten, die von der Lösung, dem Standort und dem Bereitstellungsmodell abhängen. Sie ist für sequenzielle Arbeitslasten mit großen Dateien ausgelegt. Traditionelle SAN- und NAS-Architekturen sind dagegen für Arbeitslasten gedacht, bei denen unter anderem der wahlfreie Zugriff auf kleine Datenblöcke gefragt ist. Diese Arbeitslasten spielen bei der skalierten Objektspeicherung keine Rolle und würden nur zu einer erhöhten Komplexität der Bereitstellung sowie zu unnötig hohen TTL-Anforderungen führen. Bevor man also eine Lösung wählt, sollte diese im Hinblick auf die Workloads bei der Archivierung getestet werden, um die Leistungsparameter und Vorteile der Lösung zu ermitteln.

Beispiel Active Archive: Jedes Rack liefert dem Kunden laut der veröffentlichten Leistungswerte einen Datendurchsatz von bis zu 3,5 GByte pro Sekunde. Die insgesamt zur Verfügung stehende aggregierte Leistung skaliert linear mit der Anzahl zusätzlicher Racks. Ein wichtiger Punkt sind natürlich auch die Kosten für die Storage Lösungen. Erweitert man Active-Archive-Installationen, kostet jedes weitere Rack in der Regel genau so viel wie das erste und bei der Installation kommt es zu keinerlei Betriebsunterbrechungen. Man kann also erst einmal mit der aktuell und für die kommenden Monate benötigten Kapazität und Leistung anfangen und die Lösung danach Schritt für Schritt mit steigenden Anforderungen ausbauen. Das Hinzufügen von Kapazität geht dann schnell und einfach von Statten, wenn beispielsweise bei einem neuen Projekt, einer Umstrukturierung oder einer Firmenübernahme die Benutzeranzahl zunimmt.

Warum sich die Cloud für Scale-out Storage eignet

Die meisten Daten, die aus einer historischen Perspektive heraus archiviert wurden, können und sollten für geschäftskritische Analysen zur Verfügung stehen. Darin besteht das neue Paradigma des hart umkämpften Marktes. Die wirtschaftliche Verwertung von zigtausend Datenobjekten verlangt nach einer einfachen Lösung, die ohne die herkömmlichen SQL- oder andere Datenbankarchitekturen auskommt und schnellen Zugriff auf die Daten liefern kann. Verlässliche Datenverfügbarkeit und Datenintegrität sind die wesentlichen Bestandteile einer erstklassigen Cloud-Infrastruktur.

Scale-out Storage funktioniert auch ohne Cloud

Natürlich lässt sich Scale-out-Storage auch ohne Cloud-Umgebung einsetzen. Unternehmen haben bereits skalierte Architekturen in internen Rechenzentren errichtet, um von der Rechenleistung, der linearen CPU-Leistung und/oder den Kapazitätszuwächsen, die mithilfe aggregierter Systeme erreicht werden können, zu profitieren. Die Cloud ist durch ihre schiere Größe aber einfach das prominenteste Einsatzszenario.

Beim Einsatz von Scale-out-Lösungen können durchaus Fragen auftauchen, die unbedingt im Vorfeld geklärt werden müssen, bevor man sich für eine Implementierung entscheidet. Einige der wohl wichtigsten Fragestellungen sind folgende:

1. Können Unternehmen, die Legacy-Speichersysteme betreiben, auch Scale-out-Funktionen implementieren, ohne gleich die gesamte Infrastruktur überholen zu müssen?

Ein Mix bestehenden Storage-Ressourcen und Scale-out-Lösungen ist möglich; in Abhängigkeit von Faktoren wie der Arbeitslast, den verwendeten Speichermedien (HDD, SSD oder AFA) und der Leistung sowie den Service- und Supportanforderungen. Hybrid-Cloud-Modelle können in solchen Umgebungen effektiv eingesetzt werden. Es gibt Cloud-basierte Gateways, um diesen Ansatz zu optimieren.

2. Wie groß ist der Aufwand für diejenigen, die ihre Speicherinfrastruktur komplett migrieren wollen? Wie schwierig ist das und was gehört dazu?

Wie bei jedem Migrationsvorhaben müssen sich Unternehmen sorgfältig vorbereiten und die Voraussetzungen der Anwendungen erfüllen, was einen wesentlichen Einfluss auf die Komplexität des Migrationsprozesses hat. Die meisten nativen Cloud-Nutzer haben sich der größten Herausforderung, die es bei der Migration in eine Public Cloud gibt, bereits gestellt – nämlich der Umsetzung der Objektschnittstelle. Daher verfügen die typischen Cloud-Nutzer heute über unternehmenseigene technische Teams, die die Anwendung steuern können und über die nötige Expertise verfügen, um die Daten zurück zum internen Rechenzentrum migrieren zu können.

Aber auch die Anbieter tun das Ihre, um den Prozess weiter zu verbessern. HGST hat mit AWS S3 beispielsweise eine quasi standardisierte API-Schnittstelle implementiert, die den reibungslosen Übergang erleichtert. Die Notwendigkeit zum Umschreiben der Anwendung entfällt damit. Außerdem gibt dieser Ansatz dem Nutzer die Möglichkeit, die volle Bandbreite freier und proprietärer Migrationswerkzeuge auszuschöpfen, die es für das heutige AWS-Ökosystem gibt. Im Rahmen eines Netzwerks von Technologiepartnern strebt HGST zudem immer weiter danach, die Nutzbarkeit ständig zu verbessern, und kooperiert direkt mit den Anbietern anderer Anwendungen. Kunden können dadurch die anwendungsinternen Replikations- und Migrationswerkzeuge nutzen, sofern sie zuvor mit der HGST-Schnittstelle getestet wurden.

3. Was können Unternehmen intern einsetzen, um dieselben Scale-out-Fähigkeiten wie in einer Cloud zu erlangen, falls sie ihre unternehmenskritischen Daten nicht an Cloud-Anbieter aushändigen wollen?

Hybrid Cloud-Modelle können in solchen Umgebungen effektiv eingesetzt werden. Es gibt Cloud-basierte Gateways, um diesen Ansatz zu optimieren. Unternehmen können dabei ihre (hyperaktiven) Daten teilweise oder gesamt im Haus behalten und die Cloud zur Replikation nutzen. Lösungen wie Active Archive können für beide Modelle verwendet werden: Sie können als Private-Cloud-Repository oder als Hybrid-Public-Cloud über einen Service-Anbieter eingesetzt werden.

4. Wie teuer ist der unternehmensinterne Einsatz von Scale-out Storage, wenn dieselbe Leistungsfähigkeit wie in der Cloud vorhanden sein soll?

Die Kosten für eine unternehmensinterne Scale-out Storage-Lösung, die über dieselbe Leistungsfähigkeit wie die Cloud verfügt, hängen von Größe und Maßstab des Projekts ab und lassen sich pauschal schwer einschätzen. Die Entscheidung für Scale-out-Storage ist zudem über die tatsächlichen Ausgaben hinaus für die Gesamtkostenbetrachtung relevant: Hat das Unternehmen zu jeder Zeit Zugang zu allen Daten innerhalb der eigenen Gebäude, fallen die Nachteile von externen Speicherorten weg – Latenzen, Risiken, Kosten der Datenübertragung und Ähnliches sind eliminiert. Zudem wirkt sich die Möglichkeit einer Analyse historischer Daten in Echtzeit positiv auf die Geschäftstätigkeit und den wirtschaftlichen Erfolg des Unternehmens aus.

Über den Autor:
Manfred Berger ist Senior Manager Business Development Elastic Storage Products EMEA bei HGST.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Oktober 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close