Heiße Storage-Technologien für 2014

OpenStack, Cloud, Hyper-converged, Deduplizierung, Backup Appliances und Solid-state Storage sind angesagte Storage-Technologien im Jahre 2014.

Diese sechs Storage-Technologien sind bereit für das Jahr 2014 und werden Bedeutung im Data Center haben.

  • Die nächste Generation von Solid-state Storage
  • Primäre Storage-Daten-Deduplizierung
  • Hyper-converged Storage (quasi ineinanderfließender Speicher)
  • Backup-Appliances
  • OpenStack-Storage
  • Cloud-integriertes Storage (CIS)

Bei unseren Technologie-Voraussagen konzentrieren wir uns nicht auf utopische Projekte und preisen diese als angesagte Storage-Technologien. Wir fokussieren uns vielmehr auf die neuen – und auf die relativ neuen – Storage-Technologien, denen wir zutrauen, dass sie im laufenden Jahr in den Data Centern eine Rolle spielen werden.

Allerdings lassen wir auch eine sehr junge Technologie zu, die erst kürzlich dem Entwicklungslabor entsprungen ist. Diese ist aber so vielversprechend, dass wir ihr einen Blitzstart zutrauen. Aber so ist es nun mal auf dem heutigen Storage-Markt: Technologien, die eine jahrelange Evolution durchlaufen und dadurch an Gewicht gewinnen, führen die Statistiken an. In diesem Fall: der raketenhafte Aufstieg von Solid-state Storage.

Das sich ständig weiterentwickelnde Flash-Storage ist in dieser Voraussage mit zwei Solid-state-Technologien vertreten:

  • NVMe (Non-Volatile Memory Express) und
  • 3D Flash.

Abgerundet wird die Voraussage für 2014 durch das endlich Realität gewordene „Dedupe to Primary Storage“ (Deduplizierung auf dem primären Storage), Hyper-converged Storage, Plug&Play-Backup-Appliances und den Aufstieg von OpenStack-Storage. Weiter im Angebot ist die unscharfe Grenze zwischen Cloud- und On-Premises-Storage.

1. Die nächste Generation von Solid-state Storage

Solid-state Storage hat die Branche im Sturm erobert. Sowohl Start-ups als auch alteingesessene Hersteller bieten Hybride aus Solid-state- und festplattenbasierten Systemen, nur Solid-state Drive (SSD)-Arrays und serverbasiertem Flash an. Der Start ist vielversprechend, dennoch gibt es Hürden bei der Entwicklung von Solid-state zu nehmen. Dazu gehören das Fehlen von Industrie-Standards für Netzwerk-Interoperabilität und die Grenzen der derzeitigen NAND-Flash-Technologie.

Die NVMe Work Group ist ein Branchen-Konsortium aus über 80 Technologie-Unternehmen. Sie entwickelt derzeit einen PCIe-Host-Controller (PCI Express), der eine Industrie-Standard-Schnittstelle bekommen soll. Damit möchte man optimieren, wie PCIe-Flash-Geräte innerhalb von Storage-Systemen interagieren.

Brian Garret, der Vize-Präsident von ESG Labs, hat das wie folgt in Worte gefasst: „Es standardisiert PCI-Flash-Adapter … die Karten, die man in so Zeug steckt … wie diese mit der CPU, den Anwendungen und dem Betriebssystem kommunizieren.“

Ohne den NVMe-Standard braucht jeder PCIe-Hersteller einen eigenen Treiber. Konfiguration und Wartung von PCIe-Flash-Karten würden so wesentlich umständlicher. Die NVMe-Spezifikation standardisiert die Schnittstelle des Host-Controllers und bietet Unterstützung für Multicore-Architekturen. Ebenso ist Support für End-to-End-Datenschutz, Verschlüsselung und Security gegeben.

Die Spezifikation zu NVMe 1.0 wurde im März 2011 veröffentlicht, Version 1.1 nahm im November 2012 Form an. Laut Garret folgt die Annahme von NVMe einem typischen Industrie-Muster von Standard-Entwicklungen und den Lebenszyklen von OEM-Produkten. „Sobald die Spezifikation abgeschlossen ist und Geräte verfügbar sind, müssen wir auf die OEMs warten. Wir sprechen hier davon, inwiefern sie diese einsetzen, modifizieren und in Lösungen umwandeln“, sagt er. Das InterOperability Laboratory der University of New Hampshire (kurz iol) in Durham hat eine Liste mit Geräten und Plattformen herausgegeben, die die Kompatibilitäts-Tests bestanden haben. Sie enthält NVMe-Flash-Controller von PMC-Sierra, Samsungs XS1715-NVMe-PCIe-SSD und Western Digitals PCIe-NVMe-SSD. Im Laufe des Jahres 2014 werden wir hier noch viele weitere NVMe-kompatible Geräte zu Gesicht bekommen.

Hersteller von Chip- und Storage-Geräten arbeiten derzeit an der Entwicklung von 3-D Flash Memory. Mit dieser vertikalen Stapelungs-Technologie wollen sie den bisherigen physikalischen Grenzen und Nachteilen der planen Chipfläche ein Schnippchen schlagen. Je kleiner die Chipfläche, desto weniger Performance und Ausfallsicherheit ist zu erwarten. Der Grund sind die Interferenzen zwischen den Zellen.

Unumkehrbare Storage-Trends deuten darauf hin, dass primäre Deduplizierung ein gewöhnliches Feature wird.

Samsung Electronics hat kürzlich die Massenproduktion des eigens entwickelten 3-D Vertical NAND (V-NAND) Flash Memory bekannt gegeben. Aus diesem Lager ist zu hören, dass sich durch die Idee des 3-D-Stackings die Schreib-Performance, verglichen mit derzeitigen Prozessen, verdoppeln und die Ausfallsicherheit verzehnfachen lässt. Um das zu erreichen, stapelt man Zellschichten übereinander.

„Wirft man einen Blick auf das Gesamtbild von Storage-Speicher, ist 3-D NAND der nächste Schritt dieser Evolution.“, sagt Garrett. „Das wird genauso kommen.“, fügte er an.

Geräte, die 3-D-Flash-Stacking benutzen, stehen wohl nicht so bald zur Verfügung wie NVMe-kompatible – ganz einfach, weil die Technologie noch nicht so weit fortgeschritten ist. Allerdings glaubt Garret, dass wir im Jahre 2014 erste Geräte sehen werden. Frühestens für 2015 ist wohl mit einer größeren Anzahl zu rechnen. Sollten Hersteller allerdings eher als erwartet auf die „Grenze der Dichte“ stoßen, beschleunigt das auch die Entwicklung des 3-D-Stackings.

Ein weiterer beschleunigender Faktor könnte sein, dass auch die üblichen Anwender-Geräte von 3-D-Stacking profitieren. Somit sind Hersteller von Enterprise-Hardware nicht die Einzigen, die ein Interesse an dieser Entwicklung haben.

2. Daten-Deduplizierung von Primärspeichern

Seitdem Deduplizierung zur Grundausstattung von Backup-Produkten gehört, stellte man sich die Frage, wann die Technologie Einzug in das primäre Storage hält.

Deduplizierung zu existierenden primären Storage-Systemen hinzuzuführen hat sich allerdings als schwieriger erwiesen als auf der Backup-Seite.

Zirka ein Jahrzehnt später ist Deduplizierung für Primär-Storage aber einsatzbereit. Wir haben diesem Feature bereits den Durchbruch im Jahre 2011 zugetraut. 2014 ist es aber nun wohl endgültig so weit. Einige unumkehrbare Storage-Trends deuten darauf hin, dass primäre Deduplizierung ein gewöhnliches Feature wird.

Das Aufkommen von Flash-Storage ist einer dieser Trends. Deduplizierung hilft bei der Erhöhung der nutzbaren Kapazität von teuren Solid-state Drives. Durch die Geschwindigkeit von SSD funktioniert lineare Deduplizierung gut genug, um sie in einer produktiven Umgebung einzusetzen. Die Cloud ist eine weitere treibende Kraft von Deduplizierung. Um Daten effizient über das Netzwerk in eine öffentliche Cloud zu schicken, müssen sie vorher reduziert werden. Auch Virtualisierung spielt eine wichtige Rolle bei der Ausbreitung von Deduplizierung. Virtuelle Maschinen (VM) tendieren zu einem hohen Grad an Redundanz.

Im Jahre 2013 haben einige große Hersteller Deduplizierung für primäres Storage angeboten. Dell akquirierte 2010 Technologie durch den Kauf von Ocarina Networks, die dann schlussendlich Einzug in den Compelent-Storage-Arrays gefunden hat. Hitachi Data System (HDS) kam in den Besitz von Deduplizierungs-Code durch einen OEM-Deal mit Permabit, den die Firma in Hitachi NAS (HNAS) einsetzt. EMC spendierte der überarbeiteten VNX-Unified-Storage-Plattform „Fixed-Block Post-Process Primary Deduplication“.

Wenn Anwender heutzutage Storage kaufen, ist primäre Deduplizierung ein maßgebliches Kriterium.

Jeremy DeHart ist IT-Leiter der Rechtsanwaltskanzlei Hedrick Gardner Kincheloe & Garofalo LLP. Serienmäßige primäre Deduplizierung war seinen Angaben nach ein maßgeblicher Faktor, als er sich zum Kauf von Tegile Zebi Hybrid Flash Arrays entschied. Die Firma von DeHart repliziert Daten zwischen zwei identischen Arrays. Der Hauptsitz und eine Außenstelle befinden sich an geografisch getrennten Orten. Deduplizierung erhöht die nutzbare Kapazität und beschleunigt die Replikation.

„Deduplizierung und Replikation sowie das Flash-System sind ein gewaltiger Fortschritt für uns“, sagt DeHart. „Deduplizierung war ein absolutes Muss, da bei uns alles virtualisiert ist. Weiterhin können wir dadurch Daten wesentlich schneller replizieren“, fügt er an.

EMC-Kunde Ed Ricks ist CIO am Beaufort Memorial Hospital in South Carolina. Durch die Kombination an Deduplizierung und Flash seien die neuen VNX Arrays für ihn wesentlich interessanter geworden.

„Sie faszinieren mich“, sagt Ricks. „Damit bekomme ich nicht nur Flash, sondern auch gleich Deduplizierung. Man kauft ein Einstiegsmodell mit sieben TByte und bekommt vielleicht 25 bis 35 TByte nutzbaren Speicher. Zusätzlich gibt es noch den Vorteil von Flash-Geschwindigkeit.“

Deduplizierung verbreitet sich heutemöglicherweise schneller, weil es kostenfrei mit ausgeliefert wird. Es ist in Flash-Storage, Cloud-Gateways und die Betriebssysteme der meist verkauften Geräte integriert. „Deduplizierung von Daten ist nun etabliert und sollte auch genauso behandelt werden“, sagt Analyst Arun Taneja von der Taneja Group. „Warum sollte man zu den Technologien des 20. Jahrhunderts zurückkehren?“, fragt er.

3. Hyper-converged Storage

Komplexität und Management des Storages sind die zwei größten Herausforderungen, mit denen Administratoren virtueller Serverumgebungen konfrontiert sind. Die Frustration der Anwender mit traditionellen Storage-Systemen wächst. Das Interesse an Storage speziell für virtuelle Maschinen ist gestiegen. Das wiederum hat zum Entstehen von Hyper-converged Storage geführt – quasi eine „Eierlegende Wollmilchsau“, die Storage, Networking und Computing vereint. Zusätzlich ist noch ein Hypervisor im Paket.

Derzeit bieten lediglich einige Start-ups diese Hyper-converged-Systeme an. Nutanix war mit seinem Complete Cluster (es nennt sich nun Virtual Computing Platform) Vorreiter. SimpliVity brachte im Jahr 2012 ein Produkt mit Namen OmniCube heraus, und Scale Computing wartete kurz darauf mit seinem HC3 auf. VMware bringt sein Virtual SAN (vSAN) in das Spiel.

In virtuellen Umgebungen muss man in der Regel Server und Storage getrennt verwalten. Deshalb können Infrastrukturen kompliziert werden. Die Ursache von Flaschenhälsen herauszufinden, die die Performance beeinträchtigen, ist unter Umständen sehr frustrierend. Jeff Byrne, leitender Analyst der Taneja Group, erklärte: „Sobald Administratoren herausfinden sollen, was gerade passiert, ist das sehr schwer. Sie versuchen, das virtuelle Konstrukt mit einem traditionellen Storage-Konstrukt zusammenzukleben, und die beiden vermischen sich nicht besonders gut.“

Hyper-converged-Systeme adressieren dieses Problem in mehrfacher Hinsicht. Das Provisioning des Storage lässt sich direkt mithilfe eines Management-Portals realisieren; somit ist das Zuweisen von LUNs und Datenträgern eliminiert. Bringt man alle Komponenten der Umgebung unter einen Hut, lässt sich das Management von einer einzelnen Schaltzentrale realisieren. Auch Probleme können so leichter erkannt werden.

Die Infrastruktur und deren Management vereinfachen – das sind die treibenden Kräfte hinter der Popularität von Hyper-converged-Optionen bei kleinen und mittelständischen Betrieben. Zum Beispiel vereint der SimpliVity OmniCube Server, Software, Festplatten und SSDs. Die Kapazität lässt sich ganz einfach erhöhen, indem man eine weitere Einheit hinzufügt. VMwares vSAN erlaubt es Kunden, Pools aus existierenden Festplatten und SSDs zu erstellen. Gleichzeitig werden Management-Möglichkeiten im Hypervisor aufgenommen.

Ein Manko bei diesen kompletten Produkten ist der Mangel an Variationen bei der Hypervisor-Unterstützung. VMware ist Klassenprimus, und es ist deswegen gut möglich, dass sich Hersteller von Hyper-converged-Systemen zunächst darauf konzentrieren.

Nutanix, Scale Computing und SimpliVity unterstützen VMware. Die beiden Ersteren bieten aber auch Support für die Open-Source-Plattform KVM an. Branchen-Analysten vertreten allerdings die Meinung, dass die Unterstützung weiterer Hypervisoren notwendig ist, um den Hyper-converged-Systemen den notwendigen Schwung zu geben.

„Die Mehrzahl der Firmen setzt mehrere Hypervisoren ein. Nicht nur VMware zu unterstützen ist meiner Meinung nach entscheidend für den Fortschritt“, sagt Terri McClure, ein leitender Analyst von ESG.

Alle drei Hersteller haben bereits Interesse bekundet, Unterstützung für weitere Hypervisoren zu implementieren. Das soll in kommende Versionen der Produkte einfließen. Einen genauen Zeitplan gibt es aber nicht.

4. Backup-Appliances

Das Interesse an „Alles in einer“-Appliances hat in den vergangenen Jahren zugenommen. Diese Produktkategorie scheint eine entscheidende Rolle im Datensicherheitsmarkt einzunehmen.

All-in-One-Backup-Appliances kombinieren Hardware, Software, Media-Server und -Ziel. Sie werden als sofort einsatzfähig beworben. Das bedeutet: hinstellen, einschalten und loslegen. Diese Lösungen bieten zwei hauptsächliche Vorteile: Die Implementierung ist im Gegensatz zu Produkten, die eine zusätzliche Backup-Applikation benötigen, wesentlich einfacher. Darüber hinaus bekommen Sie fortlaufenden Support für Hardware und Software von einem einzigen Hersteller.

Der Backup-App-Hersteller Symantec hat sichtbare Erfolge mit den eigenen Backup-Exec- und NetBackup-Appliances vorzuweisen. Andere Anbieter wie Asigra, StorServer, Unitrends und weitere offerieren nun vor-integrierte und schlüsselfertige Backup-Lösungen.

„Einige Organisationen wachsen über die Jahre und brauchen in puncto Datensicherheit Backup-Möglichkeiten, die umfangreicher sind als jene in der Vergangenheit. In diesem Fall ist eine Appliance sinnvoll“, sagt Greg Schulz, Gründer der Analysten-Firma StorageIO. „Andere Firmen profitieren ebenso von Appliances. Sie müssen ihre eigenen Backup-Server nicht selbst aus Hardware-, Software- und Netzwerk-Komponenten zusammenbasteln. Damit sparen sie Zeit, und die Mitarbeiter können sich um andere Sachen kümmern“, fügt er an.

Rachel Dines, leitende Analystin bei Forrester Research, ist der Ansicht, dass Backup-Appliances eine entscheidende Rolle bei der ständig wachsenden Kapazitäten-Nachfrage spielen werden.

„Die Anzahl der Daten, die wir derzeit im Backup-Bereich haben, machen Zweit- und Dritt-Storage derzeit zu einem der am schnellsten wachsenden Bereiche im Storage-Umfeld. Laut unseren Statistiken ist das Wachstum höher als bei Datei-Storage“, sagt Dines. „Die Datenmenge explodiert, und die Nachfrage nach sehr kurzen Wiederherstellungs-Zeiten ist groß. Aus diesem Grund suchen Firmen nach Lösungen, die sich schnell und einfach einsetzen lassen. Der Grundsatz ,So wenig Komplexität wie möglich' gilt auch für das Management“, sagt Dines.

2014 werden wir den Markt für Backup-Appliances wachsen sehen. Auch auf die virtuelle Welt wird sich das auswirken. Die Gründe dafür sind folgende:

  • Zweigstellen / Remote Office ist ein schnell wachsender Markt. Große und kleine Unternehmen, von Finanzinstituten über Regierungen bis zu Produktionsfirmen, haben Backup-Appliances bereits im Einsatz, sagt Dines. Wachstumsmotor scheinen aber die Zweigstellen zu sein.
  • Das Software-defined Data Center (SDDC) wird einen Einfluss auf Backup-Appliances haben. Ein potenzielles Hindernis für das Wachstum von Backup-Appliances im kommenden Jahr könnte sein: „Die Vorteile der Skalierbarkeit und Ausfallsicherheit von Nur-Software-Lösungen“, sagt Dines. „Die größten Produkte am Horizont bewegen sich möglicherweise am Rand hin zum Konzept des Software-defined Data Centers. Im Jahre 2013 haben wir einige Ankündigungen in Sachen Festplatten-Bibliotheken gesehen, die als virtuelle Appliances von HP StoreOnce und Quantum angeboten wurden. Dieses Jahr sehen wir möglicherweise weitere Angebote virtueller Appliances von Hardware-Herstellern“, meint Dines.
  • Die Integration von virtuellen Maschinen (VM) sollte eine Rolle spielen. Schulz von StorageIO stimmt dem zu und sagt: „Die Integration virtueller Maschinen mit zusätzlichem Applikations-Support sollte ein fester Teil der Roadmap sein. Neue oder weitere Applikationen sowie das Ausweiten der Möglichkeiten, virtuelle Maschinen schnell aus einem Backup, Snapshot – oder was immer der Schutz ist – wiederherstellen zu können ist das Ziel.“

5. OpenStack Storage

Die Open-Source-Lösung OpenStack Storage zieht nach wie vor Aufmerksamkeit auf sich. Kommerzielle Hersteller springen auf den Zug auf und befürworten das Konzept. Es gibt immer mehr unterstützte Distributionen, und mehr beweiskräftige Fallbeispiele kommen ans Tageslicht.

OpenStack unterstützt als Teil des Open-Source-Cloud-Betriebssystems sowohl Object-Storage als auch Block-Storage. Weiteres Ziel ist, Kontroll-Pools von Computing- und Netzwerk-Ressourcen zu erschaffen. Rackspace Hosting hat die OpenStack-Technologie ursprünglich zusammen mit der NASA erfunden und entwickelt. Die Pflege der Open-Source-Software wird von einer Community übernommen.

Verschiedene Hersteller tragen zum Projekt OpenStack Object-Storage (Code-Name Swift) bei. Dazu gehören Hewlett-Packard (HP), IBM, Rackspace, Red Hat und SwiftStack. HP, IBM und Red Hat arbeiten außerdem am Projekt OpenStack Block-Storage, das unter dem Namen Cinder bekannt ist. Auch andere Firmen wie Intel, Mirantis, SolidFire und SUSE beteiligen sich daran.

OpenStack Block-Storage stellt Software für das Provisioning und das Management von persistentem blockbasiertem Storage bereit. Es wird als On-Demand-Service, also auf Abruf, zur Verfügung gestellt. OpenStack Object-Storage ermöglicht das Speichern von PBytes an statischen Daten auf herkömmlichen Servern. Weiterhin ist Daten-Replikation über den gesamten Server-Cluster machbar. Die Technologie eignet sich am besten für Backups, Archive und Inhalts-Repositories.

Wenn sich IT-Abteilungen mit dem Einsatz von nicht unterstützter Open-Source-Software nicht wohlfühlen, können sie auf kommerzielle Angebote zurückgreifen. Produkte gibt es von Canonical, Cloudscaling, HP, Piston Cloud Computing, Rackspace, Red Hat, StackOps, SUSE und SwiftStack.

„OpenStack Swift ist kein „Hinstellen und Loslegen“-System. Nur herunterladen, installieren und alles ist fertig – das geht nicht“, sagt Ashish Nadkarni, wissenschaftlicher Leiter für Storage bei IDC. „Die Technologie ist noch recht jung, und man muss schon Zeit in Anpassungen, Programmierung und Fine-Tuning stecken. Einige haben die Ressourcen für dieses Unterfangen im eigenen Haus. Der Rest kann sich an kommerzielle Angebote halten“, fügt er an.

Bei OpenStack Block-Storage lassen sich die physikalischen Festplatten oder SSDs innerhalb oder auch direct-attached in Cinder Server Nodes verwenden. Ebenso ist denkbar, ein externes Storage-System eines Drittanbieters zu benutzen.

Zu den Verfügbaren Plugins gehören Open-Source Ceph RDB und Red Hats GlusterFS. Ausgewählte Systeme gibt es von Coraid, EMC, HP, Huawei, IBM, Mellanox, Microsoft (Windows Server 2012), NetApp, Nexenta, Scality, SolidFire und Zadara.

Nadkarni sagte, dass man OpenStack Block-Storage als die nächste Generation Hardware-unabhängiger Storage-Virtualisierung sehen kann. Es steht eine Abstraktions-Ebene zur Verfügung, um Storage-Ressourcen in Pools aufzuteilen. Die Integration von Arrays Dritter ist möglich.

„Das Kernprinzip von OpenStack ist es, handelsübliches Storage zu verwenden, um eine Full-Service-Plattform zu schaffen“, sagt Nadkarni. „Wenn Sie damit beginnen, kommerzielle Plattformen mit OpenStack zu verwenden, was gewinnen Sie dabei? Nicht sehr viel“, fügt er an.

Das SDSC (San Diego Supercomputer Center) der University of California untersucht Cinder und Ceph, um damit den OpenStack-Computing-Ressourcen persistenten Block-Storage zu spendieren. Matthew Kullberg ist technischer Projekt- und Services-Manager am SDSC. Er ist der Meinung, dass die Open-Source-Optionen mehr Flexibilität und Ausweitungs-Möglichkeiten zur Verfügung stellen können als die derzeit eingesetzten Block-Storage-Lösungen. Er bezieht sich hier auf Anwendungen wie Datenbanken.

SDSC hat OpenStack Swift seit 2011 für einen privaten Cloud-Storage-Dienst im Einsatz, der die bandbasierten Datenarchive ersetzte. Optionen für Object-Storage gab es damals wenige, und SDSC hat sich aus Kostengründen für OpenStack entschieden. Auch ein „Goldener Käfig“ eines Herstellers wurde damit vermieden. Weiterhin hat man Zugriff auf eine große Entwickler-Community. Kullberg sagt, dass Team würde heute genau die gleiche Entscheidung treffen.

„OpenStack hat sich als großartige Ressource für die Forschungen des SDSC und die Community der Universität erwiesen“, fügt er an.

6. Cloud-integriertes Storage

CIS (Cloud-integrated Storage) lediglich als weiteren Marketing-Begriff abzustempeln ist möglicherweise verlockend. Wenn Sie das tun, kennen Sie vielleicht die am besten geeignete Einsatzweise von Cloud Storage für Enterprise-Umgebungen nicht. In Wirklichkeit ist Cloud Storage Teil des Cloud-Lexikons geworden und beschreibt, wie man es in einem hybriden Modus, beim Tiering oder auf vielerlei andere Weise verwendet, um die internen Kapazitäten so nahtlos wie möglich zu erhöhen.

Die Schlüsseltechnologien hinter CIS gewinnen zunehmend an Akzeptanz. Gateways haben sich zu Cloud-Controllern gemausert, die eine entscheidende Rolle bei der Ausweitung der Kapazitäten außerhalb des Data Centers spielen. Hybride Appliances sind in vielen Data Centern zu Standard-Tools geworden. Das Interesse an Software-defined Storage-Appliances und Objekt-Storage wächst ebenfalls.

„Hybrides Storage ist zunehmend ein Anwendungsfall“, sagt James Bagley, leitender Analyst bei Storage Strategies Now. „Wir sprechen hier von Firmen, die eine eigene Infrastruktur im Einsatz haben. Die Cloud wird für Archivierung und Disaster Recovery genutzt. Nicht viele Unternehmen verwenden eine Cloud als primäres Storage, wenn sie nicht komplett auf Cloud-Ebene operieren. In letzterem Fall laufen alle Appliances in der Cloud“, so Bagley weiter.

Nicos Vekiarides, CEO von TwinStrata, zufolge ist CIS ein Synonym für hybrides Storage. Cloud Storage wird mit lokalem Storage im Cache kombiniert. Außerdem verwendet man es als separate Storage-Tiers. Dabei befinden sich einige Komponenten in der Cloud und andere am Standort.

„Die Cloud kann ein zweites Data Center ohne all die Kapitalkosten sein“, sagt Vekiarides. „Es ist eine kostengünstige Möglichkeit für Datensicherheit und Disaster Recovery außerhalb des Standorts“, betont er.

Die häufigsten Anwendungsfälle sehen wir bei der Kapazitätserweiterung und beim Cloud-basierten Disaster Recovery, meint Vekiarides. „Wir arbeiten mit Firmen, deren Datenwachstum bei 40 oder 50 Prozent pro Jahr liegt“, sagt er. „Es ist schwierig, das alles in lokalem Storage unterzubringen. Speichern Sie das in einem Controller, haben Sie eine lokale Kopie. Gleichzeitig ist ein Snapshot in der Cloud für die Datensicherheit zuständig.“

Nach Bagley von Storage Strategies Now benötigt man nicht unbedingt eine Appliance als Zugang zu CIS. Allerdings brauchen Sie mehr Applikationen, die mit Clouds wie Amazon S3 oder Microsoft Azure zusammenarbeiten. Es gibt auch Anbieter wie StorageCraft, die mit ihrem Produkt ShadowProtect Cloud Services kleinere Firmen als Zielgruppe ansprechen. Damit werden Daten in die eigene Cloud gesichert.

„Sollten Sie keine Applikationen haben, die sich speziell um Backup und Archivierung kümmern, dann ist eine Appliance bequem“, sagt Bagley.

Über die Autoren: An diesem Beitrag haben unter anderem Rich Castagna, Todd Erickson, Ed Hannan, Sonia Lelii, Dave Raffo, Carol Sliwa und Sarah Wilson mitgearbeitet.

Artikel wurde zuletzt im Februar 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Solid-State-Speicher

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close