Die wichtigsten Storage-Technologien 2015

Die searchstorage-Redaktion stellt die wichtigsten Storage-Technologien 2015 vor. Mit diesen Lösungen nimmt die RZ-Transformation Fahrt auf.

Dieser Artikel listet die Technologien auf die im Jahr 2015 wichtig in den Rechenzentren sind und die vermehrt zum Einsatz kommen werden, um die Transformation im Data Center voranzutreiben. Wie schon seit 12 Jahren erläutern die Redakteure von searchstorage einige Technologien, die im nächsten Jahr wohl den größten Einfluss auf die Rechenzentren dieser Welt haben werden.

Wie schon zuvor, ist die Liste auf Praktikabilität fokussiert. Darum sind die hier aufgeführten Lösungen nicht die brandneusten, denn wir wollen die Lösungen ins Auge fassen, die einen gewissen Reifegrad erreicht haben sowie erprobt und verfügbar sind.

Die diesjährige Liste reflektiert die enormen Auswirkungen, die Solid-State auf Storage-Systeme hatte, was All-Flash-Arrays der Enterprise-Klasse, Flash Caching und Hybrid-Storage-Arrays auf unsere Liste der interessantesten Technologien 2015 bringt.

Abgerundet wird unsere Schar an erwähnenswerten Technologien von VMware Virtual Volumes (VVOL), die das Storage-Provisioning und die Storage-Konfiguration revolutionieren könnte; von günstigen und zügigen Cloud-basierten Disaster Recovery (DR) sowie von Server-SANs, die Server in Arrays transformieren. Darüber hinaus gibt es durchaus vielversprechende Technologien, die aber erst am Anfang ihres Siegeszuges stehen.

Fünf Technologien, die vielversprechend sind, aber noch nicht flächendeckend zum Einsatz kommen.

VMware Virtual Volumes (VVOLs)

Virtual Volumes passt perfekt in unsere Liste erwähnenswerter und „heißer“ Technologien 2015. Wahrscheinlich könnten wir sie noch auf viele andere Listen setzen, unter anderem als die sehnlichst erwartete Storage-Technologie.

Wer würde nicht etwas wollen, dass den Einsatz von LUNs und NAS Mount Points für das Storage-Provisioning eliminiert? Das ist genau das, was VMware und andere Storage-Array-Hersteller mit VVOLs versprechen, ebenso die baldige Marktverfügbarkeit. VVOLs waren Teil der VMware vSphere 6 Beta-Version und sollte im ersten Quartal 2015 allgemein verfügbar sein.

VVOLs geben jeder virtuellen Maschine (VM) ein eigenes Volume auf dem Storage-Array, um Services wie Snapshots, Replikation und Thin Provisioning zu sichern. Das erlaubt einer VM, ihre eigenen Storage-Services und Policys zu nutzen.

VVOLs basieren auf VMware vStorage APIs for Array Integration (VAAI) und vStorage APIs for Storage Awareness (VASA). VAAI ermöglichen Hypervisoren, Funktionen an das Storage-System abzugeben, während VASA die Transparenz zwischen Hypervisor und Array gewährleistet. VVOLs kommunizieren direkt über VASA mit dem Storage-System, anstatt LUNs oder NAS Mount Points zu verwenden. Sie fungieren als Storage-Container mit einem Data Store, Storage-Services und Metadaten. Die Container sind den individuellen VMs angepasst. VVOLs ändern den größten Teil des Storage-Managements von einer LUN zum VM-Objekt.

NetApp (FAS), Hewlett-Packard (3PAR) und Dell (EqualLogic) versprechen Arrays mit VVOLs sobald VMware die Technologie generell verfügbar macht. EMC, der Haupteigentümer von VMware, plant VVOLs in seiner ViPR Software-defined Storage-Plattform zu unterstützen. Kleinere Hersteller haben ebenso VVOLs-Strategien beschlossen. So will beispielsweise All-Flash-Anbieter SolidFire seinen Quality of Service anpassen, um jeder VM über VVOLs Storage-Performance zu garantieren.

„Wenn Sie Storage verwalten, so sollten VVOLs auf Ihrer Liste stehen“, sagt Greg Schulz, Gründer und Senior Advisor bei StorageIO. „Hier sollten man schnell dabei sein. Jeder Hersteller sollte eine VVOLs-Geschichte parat haben. VVOLs zu haben wird ein Schlüsselfaktor, ebenso wie LUNs oder File Share zuvor.“

Jüngere Speicherfirmen, wie zum Beispiel der VM-fokussierte Anbieter Tintri oder Hersteller hyper-konvergenter Systeme wie Nutanix oder SimpliVity, haben ihre Systeme von vornherein so konzipiert, dass sich LUNs und Mount Points beim Storage-Provisioning vermeiden lassen. Herkömmliche, ältere Speichersysteme müssen völlig überarbeitet werden, um VVOLs mit Services wie Snapshots, Replikation und Thin Provisioning zu unterstützen.

„VVOLs sind ein notwendiger Fortschritt für die Storage-Fähigkeiten jeder einzelner VM. Tintri hat es vorgemacht und belegt; und nun wird dieser Ansatz von Virtual SAN und anderen angenommen“, sagt Mike Matchett, Senior Analyst der Taneja Group. „Leider zeigt sich, dass es eine große Herausforderung ist, VVOLs-Support in herkömmliche Systeme zu integrieren.“

All-Flash-Arrays der Enterprise-Klasse

Die Performance-beschleunigenden All-Flash-Arrays (AFAs) stehen in den Startlöchern für einen flächendeckenden Einsatz für eine Vielzahl von Workloads. Das liegt daran, dass die meisten der führenden Anbieter und Start-ups ihre Produkte mit zusätzlichen Kapazitätsoptionen, Enterprise-Storage und Datenreduzierungs-Features aufgepeppt haben.

Funktionen wie Snapshots, Clones, und Replikation sind mittlerweile Standard bei AFAs. Hinzu kommen die Kombination aus Inline-Kompression und Deduplizierung sowie die sinkenden Kosten für Flash, was die Preise für AFAs soweit gedrückt haben, dass man sich hier auch den Einsatz dieser Systeme für allgemeine Workloads überlegen könnte.

Die Supermarkt-Kette Great Atlantic & Pacific Tea Company, auch bekannt als A&P, entschied Mitte 2014 sich für eine Langzeit-Investition in FlashSystem V840 von IBM, um damit ältere Disk-Arrays zu ersetzen. A&P will mehrere Datenbanken für geschäftskritische Applikationen auf der V840 betreiben und feststellen, welcher Nutzen bei der Performance und dem RZ-Stellplatz sich hier erreichen lassen. Das bestätigte Richard Angelillo, Vice President of Information Services bei A&P. Das Unternehmen wählte zudem die optionale Inline-Kompression, um die Speicherkapazität von 40 nutzbaren TByte auf 200 TByte effektive nutzbare aufzustocken.

„Der Wert von AFAs gegenüber Festplattenspeichern ist weitaus deutlicher, wenn man mehrere Anwendungen auf dem System laufen lässt, anstatt nur eine Applikation damit zu beschleunigen. Der ROI wird sehr viel schneller erreicht“, erklärt Eric Burgener, Research Director bei IDC Storage Practise. IDC prognostiziert, dass All-Flash-Arrays letztlich traditionelle Festplattensysteme ablösen werden.

Tim Stammers, Senior Analyst bei 451 Research sagt, dass der AFA-Markt bis 2018 eine durchschnittliche Wachstumsrate von 42 Prozent und einen Wert von 3,4 Milliarden US-Dollar erreichen wird. Eine 451-Research-Umfrage unter 200 Enterprise-Storage-Mitarbeitern von 2013 belegte, dass acht Prozent bereits All-Flash nutzten oder testeten. Dieser Wert stieg in diesem Jahr auf elf Prozent; weitere 19 Prozent gaben an, innerhalb der kommenden 18 Monate AFAs zu implementieren, so Stammer.

AFA-Hersteller behaupten, potentielle Anwender sollten die Total Cost of Ownership (TCO) und den Preis pro IOPS in Betracht ziehen, anstatt nur den Preis pro GByte zu beachten. Marc Staimer, Präsident der Dragon Slayer Consulting, sagt, dass der Preis pro GByte zunächst auf das Niveau der HDDs fallen muss, damit AFAs am Markt weiter voran kommen. Dies muss seiner Meinung nach vor allem in der Öffentlichkeit so wahrgenommen werden und lässt sich nicht durch „Vodoo-Magie von Dedup und Kompression“ erreichen.

Gründer und Consulting Analyst der Taneja Group, Arun Taneja, betont, dass das Feindbild der Flash-Arrays und hybrider Systeme traditionelle Arrays mit schnellen HDDs sind (15k rpm). „Niemand sollte künftig noch reine Festplattensysteme kaufen. Hier werden vermehrt hybride Arrays und AFAs Verwendung finden“, meint Taneja.

Cloud-basiertes Disaster Recovery

Disaster Recovery ist eines der kostenintensivsten und wichtigsten Projekte in der IT. Hier wird nun die Cloud eine besonders attraktive Alternative zu Installationen am eigenen Standort. Anwender fühlen sich mittlerweile sicherer mit Cloud-Storage-Services wie zum Beispiel Backup, so dass Cloud-basierte DR-Angebote sich vermehrt haben und Anwender ihre Cloud-Data-Protection in diese Richtung erweitern können.

Ein Cloud-basierter Disaster-Recovery-Service muss den gesamten Datenbestand oder vollständige virtuelle Maschinen in die Cloud replizieren. Die Services verwenden Server-Virtualisierung, um Zugang zum Cloud-Storage zu erhalten und um so ein zweites Rechenzentrum zu erstellen. Diese Angebote unterstützen Server-Images und Backup der Produktionsumgebung vom Kundenstandort zur Cloud des Providers. Vorkonfigurierte Angebote an Disaster-Recovery-as-a-Service erleichtern Failover in der Cloud und kosten weniger, da sie ein Pay-per-Use Preismodell anbieten. Dieses rechnet nur die tatsächlich genutzten Ressourcen ab.

„Bei DR scheint der TCO gleichbleibend zu sein, was für die Nutzung der Cloud spricht“, meint Matchett von der Taneja Group. „So lange man die Daten nicht benötigt, sind sie kalt. Darüber hinaus wird über Restores in der Cloud diskutiert. Wer eine virtualisierte Umgebung hat und VMs sichert, der kann dann ein Restore dieser VMs in der Cloud durchführen, falls sein primärer Standort nicht zur Verfügung steht.“

Matchett sieht hier große Fortschritte durch Tools, die VMs in die Cloud migrieren oder konvertieren. „Hier gibt es Tools, die auf der Ebene des Applikations-Blueprints arbeiten, wo komplexere Applikations-Architekturen umsetzen lassen.

James Bagley ist Senior Analyst bei Storage Strategies Now und sagt, dass es in den letzten Jahren einen Anstieg in der Zahl der DRaaS-Angebote gegeben hat und dass diese anspruchsvoller geworden sind durch Funktionen wie Automatisierung, Replikation und die Option, Hypervisoren in der Cloud laufen zu lassen.

„Es kann problematisch sein, eine bestehende Umgebung in die Cloud zu hieven“, warnt Bagley. „Unterschiedliche Hypervisoren und Netzwerkeinstellungen sind oft die Schreckgespenster dieser Projekte.“

Satimer sagt, dass DR mehr als nur Daten-Recovery ist und das bedeutet, dass Anwender ihre Bewertung der DRaaS-Angebote erweitern müssen. „Es ist mehr als nur die Daten einzuspielen“, meint Staimer. „Welche Verbindung besteht vom Provider zum Anwender? Verwenden sie Netzwerkmanipulation, um Zugriffe zu erlauben? Wie viele Kunden kann der Provider gleichzeitig bedienen und für wie lange? Viele Nutzer, die sich auf Cloud-DR einlassen, wissen oft nicht, worauf sie sich wirklich einlassen.“

Nichtsdestotrotz kann Cloud-basiertes DR erstaunliche Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO) anbieten, die sich sogar kleinere Firmen leisten können.

Flash Caching

Flash-Storage kann die Latenzen verringern und IOPS beschleunigen, aber Solid-State Hardware allein mag dies nicht erreichen. Hier wird Flash-Cache-Software interessant, da sie ein intelligentes, automatisiertes Management bietet, das wichtige Applikationen mit der Performance eines höheren Storage-Tiers versorgt.

Das Aufkommen von Flash Cache als heiße Technologie entspricht der vermehrten Applikationsdichte, besonders in Rechenzentren mit großen Installationen von transaktionalen oder analytischen Datenbanken.

„Anbieter von Flash Caching überzeugen dadurch, dass sie demonstrieren, wie sie Managementlasten reduzieren während die allgemeine System-Performance gesteigert wird“, erklärt Jim Handy, Analyst für Halbleiter bei Objective Analysis. „Unternehmen, die Flash-Integration in ihren Systemen vor sich her schoben, sind nun überzeugt, dass Flash-Caching-Software auch die letzten ihrer Probleme beseitigen kann.“

Dieser Markt erhielt 2014 durch Hersteller wie PernixData Dynamik oder etablierte Hardware-Hersteller wie HGST. PernixData ermöglicht es, Server-RAM als Cache-Ressource für virtualisierte Umgebungen zusammenzuführen. HGST wiederum präsentierte seine ServerCache-Software für Windows Server und Linux-Betriebssysteme.

Flash Cache kann zusammen mit HDDs in einem Server eingerichtet werden, ebenso als Komponente innerhalb eines Shared Storage-Arrays oder innerhalb eines virtuellen Pools über zahlreiche Server hinweg. Die Flash-Software nutzt Algorithmen, welche die historischen Zugriffsmuster der Anwendungen überprüft und führt Flash-Ressourcen den Datenblöcken zu, die eine Beschleunigung am meisten benötigen. Der Cache-Mechanismus speichert kurzfristig eine Kopie der heißesten Daten auf NAND-Memory-Chips, wodurch sie sich schnell wieder zurückholen lassen während Bandbreite freigemacht wird.

Gartner schätzt, dass der Markt für Flash-Cache-Software bis 2019 auf einen Wert von 350 Millionen US-Dollar anwächst und dabei eine zweistellige Wachstumsrate zwischen 10 und 20 Prozent aufweisen wird. Die hohen Kosten dedizierter Storage-Systeme gaben den Anstoß für den Erfolg des Software-basierten Flash-Cache, meint David Russel, VP of Storage Technologies and Strategies bei Gartner.

„Administratoren sind es leid, dauernd zu über-provisionieren. Sie wollen nicht noch mehr Fibre-Channel-Platten kaufen, nur damit sie ihre IOPS erreichen“, erläutert Russel. „Wir leben in einer reduzierten, verknappten Welt und der größte Fokus liegt auf Storage.“

 Während All-Flash-Arrays noch mehr Fahrt aufnehmen müssen, hat sich Flash Caching als Interimsmethode für Performance-Beschleunigung und für spezifische Workloads etabliert.

„In den meisten Umgebungen, sind meist nur zehn bis 15 Prozent der Daten aktiv“, sagt Georg Crump, Präsident bei Storage Switzerland. „Kauft man zehn bis 15 Prozent an Flash-Kapazität und nutzt diese, um Daten zur richtigen zeit automatisch in den Cache zu schreiben, so nutzt man Flash auf sehr ökonomische Weise.“

Server-basiertes Netzwerk-Storage

Traditioneller Shared Storage kann eine Menge Probleme in der heutigen virtualisierten Welt aufwerfen. Das Management getrennter Storage-Einheiten ist aufwendig und langwierig, Hardware für wachsende Datenbestände zu kaufen ist kostspielig und VMs müssen sich quasi um den adäquaten IOPS streiten. Bei all diesen Problemen können Server-basierte Netzwerkspeicher Abhilfe schaffen und ist ein weiterer Grund, diese Technologie 2015 in Augenschein zu nehmen.

Man nennt diese Technologie auch Server-attached Storage oder Server SAN. Hier wird Software eingesetzt, die eine Abstraktion zwischen den Komponenten traditioneller Shared-Storage-Architekturen und weg von der Hardware schafft. Das Storage ist direkt mit dem Host-Server verbunden, während die Software als VM läuft und die physische Kapazität zusammenführt, zu der alle VMs Zugang haben.

Das heißt, dass teure Hardware nicht mehr nötig ist. Standard-Server, -Netzwerk und –Storage kann zum Einsatz kommen, während immer noch eine adäquate Performance und Kapazität erreicht wird. Darüber hinaus wird das Skalieren kosteneffizienter.

Der größte Vorteil Server-basierter Storage-Technologie ist das Management. In herkömmlichen SAN-Umgebungen sind die Management-Eigenschaften spezifisch für das Array. Server SANs abstrahieren diese Eigenschaften und machen sie über die gesamte Kapazität hinweg verfügbar.

„Der eigentlich Trend hier ist die Einfachheit“, betont Stuart Miniman, Principle Research Contributor bei Wikibon. „Nur eine Plattform zu haben, die die gesamte Infrastruktur verwaltet, ist sehr attraktiv.“

In einem Report von 2013 sagte Wikibon, dass der Umsatz des Server-SAN-Markts 270 Millionen US-Dollar im gleichen Jahr betrug. Ebenso prognostizierte das Unternehmen, dass die schnelle Migration von herkömmlichen zu Server SAN spätestens 2018 beginnt. Derzeit ist es sehr offensichtlich, dass sowohl etablierte Unternehmen als auch Start-ups weiterhin an Server-basierten Netzwerk-Storage-Lösungen arbeiten.

Laut Miniman kann vieles der Marktaktivität VMware hyper-converged Produkten zugeschrieben werden. „VMware hat einen sehr wichtigen Platz in diesem Öko-System. Wenn diese Firma sagt ‚Vergessen wir Storage-Arrays und nutzen einen neuen Weg, IT zu vereinfachen’ dann werden Anwender auch aufmerksam und hören hin.“

VMware veröffentlichte vSAN letztes Jahr, eine lang erwartete hyper-konvergente Software, die physische Kapazitäten für die Speicherung von VMs zusammenführt.

„Es gibt viele Start-ups in diesem Bereich“, sagt Miniman. „Es gibt nahezu alles von den großen Wettbewerbern wie HP, EMC und Dell, die fast jede einzelne Lösung auf diesem Gebiet über Partner und OEMs umsetzen. Darüber hinaus gibt es noch Nutanix, Nexenta und Fusion-IO.“

Auf der VMMworld 2014 erweiterte VMware seine Server-basierte Storage-Plattform dergestalt, dass andere Hardware-Hersteller mit EVO: RAIL mit auf den Zug springen können. Die Referenzarchitektur stellt einen Formfaktor für Hardware zur Verfügung, auf den Partner aufbauen können, während die vSAN-Architektur fürs Management und Provisioning genutzt wird.

Hybride Storage-Arrays

Hybride Storage-Arrays verbinden Festplatten mit Solid-State Drives (SSDs) und sind eine beliebte Option, Flash zu implementieren. Diese Methode wird häufiger angewandt als All-Flash-Arrays und Server-seitiger Flash. Laut einem aktuellen IDC-Report, nutzen bereits 51 Prozent von Unternehmen mit über 1.000 Mitarbeitern Flash in ihrer Storage-Infrastruktur. Ganze 84 Prozent dieser Gruppe haben ein hybrides System installiert. 66 Prozent nutzten einen Do-it-yourself-Ansatz (DIY) und fügten SSDs in bestehende Systeme ein, während sich 18 Prozent für ein neues Hybrid-Array entschieden.

Die zahl zweckgebundener Hybrid-Installationen wird im neuen Jahr steigen. Egal, ob völlig neu konzipiert oder überarbeitet, diese Arrays offerieren eine bessere Performance und Zuverlässigkeit als DIY-Hybrid-Systeme, denn sie wurden so gestaltet, dass sie optimal mit Flash operieren können, das sie die Medien nicht wie herkömmliche Festplatten ansprechen. Jeder große Speicherhersteller bietet mittlerweile Hybride Systeme an, meist mit großer Auswahl. EMC vertreibt hybride VNX- und VMAX-Systeme mit einer großen Auswahl an Performance- und Kapazitätsoptionen. Der Bostoner Hersteller bietet zudem hybride Flash-Systeme für spezifische Workloads an, beispielsweise Isilon-Lösungen für Hadoop oder die Isilon-Video-Surveillance-Lösung. Je nach Konfiguration sind die Hybrid-Systeme nicht so teuer wie All-Flash-Arrays.

Nicht die Kosten, sondern die Kapazitäten sind der limitierende Faktor bei All-Flash-Arrays. Bis vor kurzem stellten AFAs genug Kapazität zur Verfügung, um bestimmte Applikations-Workloads zu verarbeiten, aber nicht genug, um ein ganzes Unternehmen zu bedienen. Zwar ändert sich das, gehört aber noch lange nicht zur Normalität. Natürlich ist die Kapazität in hybriden Systemen kein Problem, da leistungsstarker Flash neben Festplatten zum Einsatz kommt. NetApps FAS8080 EX beispielsweise skaliert bis auf 5,76 PByte an HDDS und 36 Tbyte an Flash.

Die meisten Unternehmen haben eine oder zwei Anwendungen wie Virtual Desktop Infrastructure, die hohe Performance brauchen, während der Rest der Applikationen hervorragend auf normalen Festplatten laufen kann. Das macht hybride Systeme für viele Firmen interessant. Da der Preis für Flash weiter sinkt und die Kapazität pro Medium weiter ansteigt, wird Flash irgendwann die Marktführung übernehmen, aber derzeit ist das Hybrid-Array der große Gewinner.

Artikel wurde zuletzt im Januar 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close