photonetworkde - Fotolia

Der Wandel in der Storage-Industrie

Die Storage-Industrie befindet sich in einem enormen Wandel und muss umdenken. Besonders drei Veränderungen sind für diese Entwicklung verantwortlich.

Nur wenige hätten wohl vorhersehen können, dass EMC, der Marktführer und Storage-Riese der Industrie, jemals in die Lage kommen könnte, übernommen zu werden. Und doch ist genau das Ende 2015 passiert. Auf einer Veranstaltung, die die Industrie in einen Schockzustand versetzte, standen Joe Tucci und Michael Dell auf einer Bühne und haben angekündigt, dass Dell das Unternehmen EMC – den Vorreiter der modernen Storage-Industrie – übernehmen würde.

Wie konnte es so weit kommen? Was war passiert, dass EMC, der Eigentümer von VMware, RSA, Virtustream und vielen anderen Storage-Unternehmen, so angreifbar geworden war, dass ihm ein Verkauf eine gute Möglichkeit erschien? Der Grund dafür sind dramatische Änderungen in der Speicherindustrie. Es gibt drei wesentliche Änderungen, die den Markt heute von den Umständen von vor zehn Jahren unterscheiden. Sie sind auch der Grund dafür, dass EMC und andere große Speicheranbieter in einer Industrie, die sie einst dominierten, mit dem Überleben kämpfen.

Änderung 1: Der Wandel hin zu Standardhardware

Vor zehn Jahren wurden Speicher mit kundenspezifischer Hardware designt. Die Systeme verfügten über speziell entwickelte Backend-Komponenten wie gemeinsame Backplanes, UPS (unterbrechungsfreie Stromversorgung) und Service-Controllers. Heutzutage weist nur noch IBMs DS8000 Serie die alten POWER-Prozessoren auf, während alle anderen Anbieter ihre Produkte auf eine x86-Architektur umstellen. Wo man früher nicht umhin kam, kundenspezifische ASICs, FGPAs und Array-Komponenten zu entwickeln, kann man heutzutage alles mit einem x86-Design abdecken.

Das ist aus zwei Hauptgründen geschehen: Die Prozessorleistung hat sich so weit verbessert, dass Funktionen wie Komprimierung, Deduplizierung und andere Aufgaben auch ohne maßgeschneiderte Hardware ausgeführt werden können. Gleichzeitig ist auch die Hardware selbst unendlich zuverlässiger geworden, so dass Festplatten und Schnittstellenadapter (wie HBAs) serienmäßig produzierte Standardkomponenten geworden sind.

Die Industrie setzt vermehrt die NAND-Flash-Technologie für ihre Primärspeicher ein, da die Innovationen in der NAND-Verwaltung immer preiswertere Solid-State-Laufwerke mit immer höheren Kapazitäten und vermehrter Zuverlässigkeit möglich machen.

Die Verschiebung hin zu Standardhardware hat zwei Konsequenzen. Erstens können die Anbieter keine übermäßigen Aufschläge für ihre Produkte mehr verlangen. Wir haben so viel Transparenz erreicht, dass die Kunden jetzt schneller bemerken, wenn ein Anbieter versucht, einen zu großen Vorteil zu erzielen. Die Zeiten der Überteuerung sind endlich vorbei. Zweitens sind die Hürden für den Eintritt in die Speicherindustrie erheblich kleiner geworden – massive Investitionen in Hardware sind nicht mehr zwingend notwendig.

Änderung 2: Implementierung von Speicherfunktionen in die Software

Storage-Lösungen laufen zunehmend auf standardisierter Hardware und werden immer zuverlässiger, so dass die Funktionen eher in der Software als in spezifischen Chips implementiert werden. Funktionen, die einst in Silikon oder in der Firmware eingebettet waren, werden auf eine höhere Code-Ebene verschoben. Das bringt mehrere Vorteile mit sich:

  • Agilität – Speichersoftware kann viel schneller als früher entwickelt, getestet und auf den Markt gebracht werden. Die Plattformen, die dafür benötigt werden, sind preiswert und können mit VSA-Versionen (Virtual Storage Appliances) dieser Plattformen sogar in virtuellen Umgebungen bereitgestellt werden.
  • Zuverlässigkeit – durch die Standardisierung von Komponenten wie Netzwerklaufwerken, HBAs und Festplatten ist Speichersoftware mit einem Großteil der Hardware kompatibel. Natürlich gibt es auch Probleme mit einigen Sonderfällen, die mit der zunehmenden Hardwarestandardisierung jedoch immer weiter abnehmen werden. Aktuell gibt es gerade einmal zwei große Festplatten- und eine Handvoll SSD-Anbieter. Auch der Markt für HBAs und Controllerkarten schrumpft zunehmend durch die Einführung von besseren Kompatibilitätsstandards (wie NVMe).
  • Kosteneffizienz – durch die x86-Technologie können die Anbieter ein und dieselbe Code-Basis für verschiedene Produkte verwenden, so dass beispielsweise ein Komprimierungsalgorithmus problemlos von einem Produkt auf ein anderes übertragen werden kann. Storage in der Form von Software verringert die Bereitstellungszeit und die Entwicklungskosten.

Software-defined Storage (SDS) ist ein wesentlicher Bestandteil des IT-Storage-Markts geworden. Dennoch muss SDS nicht unbedingt nur mit Standardhardware funktionieren, anbieterspezifische Geräte sind genauso geeignet. Insgesamt hat SDS eine neue Sichtweise auf die Speicherung hervorgebracht: Aspekte wie Servicequalität, Automatisierung (REST-API-basierte Bereitstellung) und Policy-basiertes Management sind in den Vordergrund gerückt.

Änderung 3: Der Aufstieg von Open Source

Mit der Standardisierung und der Verschiebung von Funktionen in die Software ist die zunehmende Präsenz von Open-Source-Storage-Lösungen zu verzeichnen, die dem Weg von Betriebssystemen folgen, die auf den Linux-Kernel beruhen. Es gibt Projekte wie Ceph, ein Objektspeicher, der den Zugriff auf Datei- und Blockprotokolle ermöglicht, und SwiftStack, eine Objektspeicherungsschicht, die sich aus OpenStack entwickelt hat.

Hardwareanbieter setzen auf Community-beschränkte Versionen oder Versionen ihrer Produkte mit eingeschränkter Funktionalität, um ihren Bekanntheitsgrad auf dem Markt zu steigern und die Annahme ihrer Produkte zu fördern.  Es ist so einfach wie nie zuvor, mit Speicherplattformen zu experimentieren und sie zu testen, bevor man sich endgültig für eine teure Hardwarelösung entscheidet.

Ein Blick in die Zukunft

Obwohl wir hier nur drei Änderungen betrachtet haben, ändert sich die Industrie auch auf andere Art und Weise. Der Siegeszug von Cloud-Storage bringt ein Geschäftsmodell mit sich, bei dem die Benutzer nur für die genutzte Kapazität und Zeit zahlen – in anderen Geschäftsfeldern nennt man das konsumabhängige Abrechnung. In Unternehmensrechenzentren waren Speicher immer Fixkosten, die mit einem Projekt finanziert wurden oder dessen Kosten über Ausgleichsbuchungen aufgefangen wurden. Konsumabhängige Abrechnungen und Ausgleichsoptionen werden immer praktischer durchführbar und die Unternehmen können nun ihre Abteilungen auf Grundlage ihrer tatsächlichen Nutzung belasten, statt ihnen nur einen einfachen Prozentsatz der Capex-Kosten zuzuweisen.

In Zukunft wird Speicherplatz eine entgeltpflichtige Ware sein, die nach Bedarf genutzt und bezahlt wird. Die alteingesessenen IT-Anbieter kämpfen mit dieser neuen Realität, da ihr Geschäftsmodell auf Hardware und deren bisher guten Margen beruht. Für neue Unternehmen hingegen, die sich bereits angepasst haben, sieht die Zukunft auf dem Storage-Markt tatsächlich rosig aus.

Über den Autor: 
Chris Evans ist unabhängiger Consultant bei Zadara Storage.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Februar 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Storage-Anbieter

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close