Maksym Yemelyanov - Fotolia

Object Storage etabliert sich neben traditionellem Block und File

Object Storage bringt viele Vorteile gegenüber Block- und File-Storage. Vor allem Cloud Provider setzen Object Storage ein.

In den letzten 20 Jahren sind Block und File die beiden wesentlichen Protokolle für externe, geteilte Speichersysteme gewesen. Beide Protokolle waren erfolgreich wegen der Allgegenwart der Netzwerkschnittstellen, die sie unterstützen. Im Fall von Block-Geräten waren dies Fibre Channel (FC) und Ethernet (iSCSI), und bei File-Systemen war es Ethernet (CIFS/SMB und NFS).

Jedoch sind Block- und File-Systeme nicht so geeignet für den Aufbau von großen und skalierbaren Data Repositories, hauptsächlich wegen Problemen bei Schutz der Daten, Indexierung und Adressierung. RAID-Systeme skalieren nicht ausreichend, und bei File-basierten Protokollen treten schnell Probleme mit dem Metadaten-Management auf, wenn es sich um Datenvolumen in der Größenordnung von Petabytes und Milliarden von Files handelt.

Object Storage ist als eine Antwort auf das Speichern von Daten im Petabyte-Bereich entstanden. Viele Anwendungen sind jedoch auf traditionelle SAN- und NAS-Schnittstellen ausgerichtet, weshalb die Einrichtung eines Objektspeicher-Systems nicht so einfach vonstatten geht wie die Benutzung von Block- und File-basierten Systemen. Aber heute stehen solche Systeme zur Verfügung, und es gibt eine Bandbreite von Lösungen, die man für die wesentlichen Applikationen eines Unternehmens einsetzen kann.

Warum Object Storage?

Object Storage verfügt über einzigartige Eigenschaften, die die Probleme von Skalierbarkeit und Metadaten-Management, die es in traditionellen Speicherplattformen gibt, überwinden. Zu diesen Features gehören:

Verteilter und geo-verteilte Datenschutz. Schutzmechanismen sind in der Regel mit einer Form von Erasure Coding implementiert, auch als Forward Error Correction bekannt, mit denen verloren gegangene oder beschädigte Daten mittels einer Teilmenge des ursprünglichen Inhalts wiederhergestellt werden können. Die genauen Beziehungen von redundanten zu ursprünglichen Daten sind durch den Service Level bestimmt, der für den jeweiligen Inhalt festgelegt ist. Als Schutzmechanismus ist Erasure Coding viel skalierbarer und in Sachen Kapazität effizienter als RAID – allerdings auf Kosten von zusätzlicher CPU-Belastung. Erasure Coding bietet auch Vorteile bei Business Continuity und Disaster Recovery (BC/DR), indem Teilmengen der Erasure-Code-Daten an geografisch entfernten Orten abgelegt werden können. Dies bietet einen Schutz gegen den Ausfall eines oder mehrerer Systeme an den verschiedenen Speicherplätzen. Offensichtlich hängt die jeweilige Konfiguration eines Object-Storage-Systems von den Anforderungen eines Unternehmens an den Datenschutz ab.

Verbessertes Daten-Management. Bei jedem Speichersystem gibt es immer das latente Risiko von Datenverlust oder -beschädigung. Heutige Speichermedien auf Platten- oder Solid-State-Basis sind im allgemeinen zuverlässig, aber nicht vollkommen fehlerfrei. Letzteres kann bei sehr stark skalierenden Speichervolumen zu einem Problem führen. Speichermedien können kaputt gehen und sind eventuell anfällig für schleichende, nicht sichtbare Beschädigung oder nicht wiederherstellbare Lesefehler (Unrecoverable Read Errors oder UREs), die die Daten einem Risiko aussetzen. Object-Speicher mildern diese Probleme ab, indem sie Reinigungstechniken für Daten einsetzen, die potentiell korrumpierte oder vermisste Daten beobachten und wiederherstellen. Der Einsatz von Erasure Coding und die typische Write-Once-Natur von Daten auf Object-Storage-Basis machen es möglich, beschädigte Daten im Hintergrund wiederherzustellen, so dass es nur geringen oder gar keinen Einfluss auf die produktiven Prozesse gibt.

Die Fähigkeit von Object Storage, Geräteausfälle auch bei skalierenden Volumina zu managen (und die Tatsache, dass Objektspeicher keine erhöhten Anforderungen an die I/O-Performance stellen), bedeutet, dass die Systeme kostengünstigere Drives mit höheren Kapazitäten als ihre Gegenspieler auf Block- oder File-Ebene benützen können. Wenn es um Skalierbarkeit geht, spielt es eine entscheidende Rolle, beim Design der Systeme über Fähigkeiten zur Maximierung der Kapazitäten und zur Verringerung der Kosten pro Terabyte zu verfügen.

Detaillierte und erweiterbare Metadaten. Block-basierte Speichersysteme sammeln sehr wenige Informationen über die Inhalte der Daten, die im System abgelegt werden. Die existierenden Metadaten werden genutzt, um logische Konzepte wie LUNs oder Volumes auf die physischen Orte der Daten auf dem Speichermedium zu mappen. Moderne Blockspeichersysteme verwenden Metadaten, um die Anwendung von platzsparenden Features wie Thin Provisioning und Deduplizierung zu verfolgen, die infrastruktur- und weniger inhaltsorientiert sind. File-basierter Storage verwendet etwas mehr Metadaten, da die Besonderheit des Speicherns von Dateien es erfordert, Zugangsberechtigungen (Access Control Lists oder ACLs), Zugangs- und Zeitdaten und die File-Besitzer festzuhalten.

Objektspeicher bieten wesentlich umfangreichere Fähigkeiten für Metadaten, indem sie in der Regel das Metadaten-Modell selbst erweitern. So erlauben sie, dass mit jedem Objekt Schlüsselwörter und Eigenschaften mitgespeichert werden. Systeme für Object Storage sind in der Lage, Metadaten schnell zu suchen und Objekte effizient im Speicher zu lokalisieren und wiederherzustellen.

Vereinfachter Datenzugang. Im Zentrum der Technologie steht, dass Object Storage weitgehend einfache Zugangsmethoden benutzen, um Daten zu speichern und wiederherzustellen. REST-APIs (Representational State Transfer APIs) sorgen auf der Basis von webbasierten Protokollen wie HTTP dafür, Objekte über eine einzelne URL zugänglich zu machen. Die URL setzt sich aus API-Befehlen (wie GET oder PUT) und einem bestimmten Referenzcode zusammen, der jedem Objekt zugeordnet ist – der Object-ID.

Standardmäßig stammt die De-facto-Object-ID von Amazon Web Services S3 (Simple Storage Service). Das S3-API-Format ist so allgegenwärtig geworden, dass objektbasierte Plattformen es unterstützen müssen, um im heutigen Markt überhaupt konkurrenzfähig zu sein. Die Genauigkeit der S3-Unterstützung ist ein Schlüsselfaktor für den Erfolg von Herstellern und ihrer Produkte. Viele Anwendungen benutzen inzwischen die S3-Unterstützung als Standardmethode für das Schreiben und Lesen ihrer Daten.

Verschiedene Versionen. REST-basierte APIs bieten einen wesentlich einfacheren Weg, mit einem Objektspeicher zu interagieren, da fast alle Befehle auf dem Objekt-Niveau ausgeführt werden. Zusätzlich ist bei den meisten Objektspeichern ein einzelnes Objekt unveränderbar: Wenn es einmal geschaffen ist, kann es nicht mehr geändert werden. Updates der Daten innerhalb eines Objects erfordern vom Anwender, die Daten wiederherzustellen, dann das Objekt zu ändern und es wieder im Object Storage abzulegen. Das Ergebnis ist eine neue Objekt-ID oder eine neue Version des gleichen Objekts. Diese Fähigkeit, Daten in verschiedenen Versionen zu erzeugen, liefert einen Revisionsweg und einen Archiv-Log, mit denen frühere Versionen des Objekts wiederhergestellt werden können. In Systemen mit Deduplizierung sind Versionen des Objekts beschränkt auf die Daten selbst.

Cloud-basierte Integration von Object Storage

Alle der größeren Cloud-Anbieter haben eine Form von Object Storage im Programm, und in vielen Fällen war es die erste Speicherplattform, die sie anboten. AWS bietet S3 und Glacier an, bei Google Compute Platform ist es Cloud Storage und bei Microsoft Azure gibt es Blob Storage. Diese Services in Anspruch zu nehmen schließt die Berücksichtigung von APIs ein, die sich alle natürlich leicht unterscheiden. Das bedeutet, die Anbieter müssen mittels der APIs Software entwickeln, um Objekt-Ressourcen zu verwenden. Die Alternative besteht darin, ein Cloud-Gateway zu einzusetzen, das für den Endanwender ein gut bekanntes Interface wie Block oder File darstellt. Die Cloud-Provider bieten diese Features bereits bis zu einem bestimmten Grad an. Amazon stellt das AWS Storage Gateway zur Verfügung, ein lokal installiertes Softwarefeature, das iSCSI-Storage emuliert, während es den Inhalt auf S3 speichert. Microsoft übernahm 2012 StorSimple und bietet nun eine Hardware-Appliance an, basierend auf der Technologie von StorSimple: Diese dient wie eine Rampe dazu, Daten in Microsoft Azure zu speichern, während ein Standard-iSCSI-Interface genutzt wird.

Es gibt auch eine Reihe von Herstellern, die Hardware- und Softwareprodukte anbieten, die eine Anbindung an Cloud-Provider ermöglichen. Zu ihnen gehören CTERA, FXT von Avere Systems, Nasuni, AltaVault von NetApp (basierend auf Technologie, die von Riverbed gekauft wurde), Panzura und TwinStrata (jetzt Teil von EMC). Weil diese Produkte jedoch die Fähigkeit liefern, Cloud-basierte Objektspeicher über den Umweg von Block- und File-Produkten zu nutzen, liefern sie naturgemäß nicht alle Vorteile von Object Storage. Was folgt daraus für IT-Abteilungen, die Object Storage bei sich im Unternehmen installieren wollen? Wie ändert sich die Infrastruktur, wenn man entsprechende Hardware on-site einrichtet, anstatt sie als Service von einem Cloud Provider zu nutzen?

In-house Object Storage

Es gibt sowohl proprietäre als auch Open-Source-Plattformen, um Object Storage zusammenzustellen. Laut IDC sind die führenden Unternehmen in diesem Markt Cleversafe, Scality, DataDirect Networks (DDN), Amplidata und EMC. Größere Anbieter sind zudem NetApp, Caringo, Cloudian und HDS. Einige Produkte sind als Appliances und einige nur als Software erhältlich, wobei hier die Kunden die Hardware nach ihren eigenen Anforderungen auswählen. Bei den Open-Source-Plattformen gibt es Optionen wie Ceph und OpenStack Swift. Ceph ist jetzt Teil von Red Hat, wo auch kommerzieller Support angeboten wird, während SwiftStack Support für Swift liefert.

Diese Produkte bieten die üblichen Eigenschaften von Cloud-Storage an (Datenschutz, Daten- und Metadaten-Management, APIs und verschiedene Versionen). Es gibt außerdem einen weit verbreiteten (gewöhnlich ursprünglichen) Protokoll-Support zwischen diesen Systemen. Scality zum Beispiel unterstützt NFS, SMB, Linux FS, REST, CDMI, S3, OpenStack Swift, Cinder und Glance und integriert so die Plattform in OpenStack-Umgebungen als den vorherrschenden Layer für alle Anforderungen.

Natürlich müssen Objektspeicher über eine gute Metadaten-Engine und über eine umfassende Unterstützung von Anwendungen verfügen. So nutzt Cloudian eine modifizierte Version der Open-Source-Datenbank Cassandra für Metadaten und Transaction Logging. Die Datenbank kann über mehrere Nodes geteilt und verteilt werden und liefert auf diese Weise Skalierbarkeit für Metadaten, selbst wenn der Objektumfang zunimmt. HCP von Hitachi ist ein gutes Beispiel für eine Plattform mit starker Unterstützung von Anwendungen. HDS bietet integrierte Suchfunktionen an (Hitachi Data Discovery Suite) sowie Datenaufnahme (Hitachi Data Ingestor) und mittels HCP Anywhere Integration in Secure File Sharing.

Die meisten Hersteller haben ihre Performance-Technologie durch Tiering, und Unterstützung von Solid-State- und traditionellen rotierenden Medien optimiert. Zum Beispiel ist WOS von DDN in der Lage, bis zu drei Millionen IOPS in einem einzigen Cluster zu unterstützen – optimiert für die Performance kleiner und großer Files. Cleversafe, Cloudian und DDN verwenden alle gleichermaßen Techniken zum Messen der Latenz jedes Knoten in einem Cluster und zum Wiederherstellen der Daten von den Knoten mit den niedrigsten Latenzwerten. Dieses Feature ist besonders in geografisch verteilten Konfigurationen wichtig.

Viele dieser Systeme bieten Features an, mit denen Knoten zu einem Storage-Cluster ohne Unterbrechung der Prozesse hinzugefügt und entfernt werden können, um den Anforderungen an die Verfügbarkeit zu entsprechen. Knoten, die migriert werden, werden einfach abgeschaltet, bewegt und wieder zu dem Cluster hinzugefügt, wobei im Hintergrund Management-Features alle geänderten oder beschädigten Daten während des physischen Verschiebens korrigieren und auf den neuesten Stand bringen. Die meisten Systeme stellen im Ruhezustand auch Datenverschlüsselung als zusätzlichen Schutz für große Umgebungen zur Verfügung, bei denen der Austausch von Drives häufig auftreten kann. Die Systeme sind ferner für mehrere Klienten einsetzbar, was sie für Service-Provider-Umgebungen oder für Private Clouds geeignet macht.

Schließlich bieten einige Plattformen für Object Storage die Verbindung von privaten mit Public-Object-Storage an. Zum Beispiel gibt es diese Funktion bei Cloudian und HCP. Mit ihr können Unternehmen für bestimmte Datentypen (zum Beispiel nicht aktive oder selten benutzte Inhalte) die Kostenvorteile einer Public Cloud in Anspruch nehmen, während sie gleichzeitig die Fähigkeit behalten, Daten lokal und in der Cloud zu suchen.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im März 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close