everythingpossible - Fotolia

Storage-Evolution: RAID, Cloud und Objektspeicher

Mit hoher Skalierbarkeit und Datenzuverlässigkeit will der Objektspeicher-Ansatz aktuellen Storage-Anforderungen gerecht werden.

Wie kam es eigentlich zur Entwicklung des RAID-Speichers? Im Zuge des wachsenden PC-Markts sahen sich Speicherarchitekten von Mainframe-Computern vermehrt mit schnelleren und kostengünstigeren Festplattenlaufwerken konfrontiert. Eine Gruppe von Berkeley-Doktoranden wollte daher herausfinden, wie ein Speicher-Subsystem auszusehen hätte, das die typischen Probleme von einzelnen, großen Festplatten überspielt: Ihre Lösung war, mehrere kostengünstige, kleinere Festplatten zu bündeln und damit eine machbare und zuverlässige Alternative für den damaligen Mainframe-Speicher zu schaffen. Ihr Ansatz wurde erfolgreich übernommen und als Berkeley-RAID-Studie (PDF) bekannt.

Die 1990er: RAID wurde zum Standard, wenn es um den Schutz von Unternehmensdaten ging. In der Client/Server-Ära nahm nicht nur die Anzahl von Laufwerken und Kapazitäten zu, sondern auch die der Ressourcen, die für die Verwaltung notwendig waren. Große Unternehmen stellten Mitarbeiter ab, die sich um Festplattenausfälle, Hot-Swaps, Migrationen und Upgrades kümmerten. Dies kam jedoch dem Versuch gleich, einen Sack Flöhe hüten zu wollen.

Die 2000er: In der Cloud-Ära, in der sich die Infrastruktur dynamisch an den Bedarf anpassen lässt und das Speichern riesiger Datenmengen auf handelsüblichen Multi-GByte-Festplatten kostengünstig ist, stellen sich den Speicherarchitekten dennoch größere Probleme.

Herausforderungen für traditionelles Storage

Um eine bestimmte Zahl von Ausfällen zu kompensieren, lassen sich zwar einfach Kopien erstellen, im Cloud-Maßstab ist das jedoch sehr teuer. Das konventionelle RAID verursacht zwar geringere Betriebskosten, es kann jedoch nur eine bestimmte Anzahl von Ausfällen verkraften (hohes Datenverlustrisiko). Zudem fallen Administrations-Kosten an. Diese Herausforderungen (Kapazitäten, Rebuilds, Migrationen und sinkende Performance) im Griff zu behalten ist nahezu unmöglich.

Ein Ansatz, der angesichts von Millionen von Anwendungen und Benutzern, die sowohl beruflich als auch privat davon abhängen, die besonderen Eigenschaften der Cloud unterstützt: Objektspeicher. Das ist der Ansatz des neuen Jahrtausends für die Cloud-basierte Speicherung, Archivierung und Wiedergewinnung von Daten sowie für eine vernünftige Kostenstruktur. Warum? Objektspeicher bieten eine erheblich höhere Datenzuverlässigkeit und praktisch unbegrenzte Möglichkeiten der Speichererweiterung. Also ideal für eine Welt, in der Hash-Tags, Selfies, permanente Kommunikation und Zusammenarbeit on-demand unseren Alltag bestimmen.

Lösung Objektspeicher

Was steckt dahinter? Beim Objektspeicher wird ein flacher Adressraum genutzt, der nur einen einzigen riesigen Speicherpool erzeugt und Dateien nicht hierarchisch organisiert. Jedes Objekt erhält einen eindeutigen Bezeichner, so dass es ganz unabhängig von der physischen Position abgerufen werden kann.

Denken Sie sich jetzt noch zukunftsweisendes Erasure Coding dazu. Damit wird im gesamten System, auf Laufwerken, an Knoten, in Racks und sogar im Rechenzentrum selbst, Schutz und Datenlanglebigkeit in einem Maße bewirkt, wie es herkömmliche Architekturen nicht können. Gekrönt wird das Ganze noch mit einer ausgefeilten Anwendungssoftware – et voilà! Alle Daten werden an einer zentralen und beherrschbaren Stelle aufbewahrt.

Sorgen bezüglich Risiken, Komplexität, Verwaltungsaufwand und Erweiterungsmöglichkeiten, die der herkömmliche RAID-basierte Speicher im Cloud-Maßstab verursachen würde, lassen sich mit Objektspeicher vermeiden. Pioniere wie Amazon S3 und Facebook haben den Weg vorgezeichnet, so dass inzwischen alle großen Cloud-Speicheranbieter Speicherarchitekturen im Cloud-Maßstab implementieren.

PByte-Kapazität: Nahtloses und einfaches Skalieren. Konsistente Performance. Automatische Rebuilds. Machen Sie Backups in der Cloud? Im Objektspeicher? Falls nicht, machen Sie sich gerade Gedanken über Ihre Backup-Strategie?

Die Objektspeicherlösung Active Archive System weist neben den ganzen oben genannten Eigenschaften Gesamtbetriebskosten auf, die mit der Public Cloud und in vielen Fällen auch mit der Bandarchivierung mithalten können. Wer mehr zu diesem Thema erfahren möchte, kann den TCO-Rechner von HGST ausprobieren, der den Nutzen von Objektspeicher im Vergleich zu Private Cloud, Bandarchivierung und D2D2D-Replikation aufzeigt.

Über den Autor:
Scott Cleland ist Senior Director Product Marketing bei HGST.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Juli 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close