vectorfusionart - Fotolia

Die wichtigsten Storage-Trends für 2016

Searchstorage.de schaut in die metaphorische Kristallkugel und fasst die Storage-Technologien zusammen, die für 2016 wichtig werden.

Zum Jahresbeginn sinnieren viele Unternehmen darüber, welche technischen Entwicklungen anstehen und welche Technologien besonders relevant werden. Die Redaktion hat sich daraus eine eigene Hitliste zusammengestellt. Hier finden Sie die Storage-Trends, von denen wir glauben, dass sie 2016 für die Speicherwelt wichtig sind.

Erasure Coding

Riesige Objekt-Storage-Projekte, große Cloud-Datenbestände sowie wachsende Festplattenkapazitäten bringen die bewährte RAID-Methode an ihre Grenzen. Mit Laufwerksgrößen von vier, sechs, acht und nun auch zehn TByte pro Medium benötigen die Restore-Prozesse zu viel Zeit und Datenverlust kann eine Folge sein.

Um eine bessere Datensicherheit zu gewährleisten, setzen Hersteller nun verstärkt auf das Verfahren des Erasure Coding (EC) und in 2016 wird diese Technologie erst recht an Fahrt aufnehmen. Das Verfahren selbst ist zwar nicht neu, wurde aber über die letzten Jahre stetig weiterentwickelt.

Beim Erasure Coding wird eine mathematische Formel verwendet, welche die Daten in mehrere Fragmente aufteilt und diese dann an verschiedenen Standorten innerhalb des Arrays ablegt. Redundante Datenkomponenten werden während dieses Prozesses hinzugefügt. Mit diesen Komponenten beziehungsweise einigen davon lassen sich die Originaldaten wiederherstellen. Der Vorteil sind schnellere Wiederherstellungszeiten und der Fakt, dass nur einige der redundanten Komponenten für einen Restore benötigt werden. Legt man beispielsweise eine Konfiguration von 10/16 an – zehn originale Fragmente, 16 mit redundanten Komponenten – dann können bis zu sechs Festplatten (oder, je nach Konfiguration, Nodes oder Standorte) ausfallen und die Daten ließen sich noch immer rekonstruieren. Ebenso entsteht durch diese Technologie kein Performance-Verlust bei Ausfällen.

Vor allem in Objektspeichersystemen bringt diese Methode Vorteile. So bieten Hersteller wie Amplidata (HGST), Caringo, Cleversafe (IBM) und Scality diese Funktion an. Aber auch andere Anbieter wie Nutanix oder Nexenta haben dieses Verfahren in ihren Lösungen integriert. Auch in der Cloud wird EC eingesetzt, um große Datenbestände integer und sicher vorzuhalten. Der Trend geht deutlich zu EC, da RAID-Verfahren die Daten nicht mehr zeitgemäß absichern können.

Hybride Cloud

Man muss kein Hellseher sein, um zu wissen, dass auch dieses Jahr vom Cloud-Trend geprägt sein wird. Neben den „einfachen“ Diensten wie Cloud-Backup, Disaster-Recover-as-a-Service (DRaaS) oder Cloud-Storage werden aber viele Unternehmen hybride Cloud-Projekte in Angriff nehmen.

Hybride Cloud-Architekturen haben den Vorteil, dass sie kostengünstiger sind als Private Clouds und sicherer als Public Clouds. Bei hybriden Clouds wählt der Anwender gezielt aus, welche Anwendungen und Daten nach außen gegeben werden und welche von internen Cloud-Architekturen den Mitarbeitern zur Verfügung gestellt werden. IT-Verantwortliche, die hier sinnvoll recherchieren und entsprechend planen, können so auch die so genannte Shadow-IT vermindern, wenn nicht sogar ganz umgehen. Letztlich geht es darum, festzustellen, welche BYOD-Geräte gesichert werden müssen und welche Dienste die Mitarbeiter benötigen, um effizient und flexibel arbeiten zu können.

Mit einer hybriden Cloud – vor allem aber eben mit der genannten Planung – kann ein Unternehmen seine Infrastruktur flexibler, sicher und einfach nutzbar machen, bis hin zu Self-Service-Angeboten für Server oder virtuelle Maschinen.

Gerade der Sicherheitsaspekt ist vielen Firmen bei Cloud-Projekten wichtig, so dass es keine Überraschung ist, dass hybride Cloud-Architekturen immer beliebter werden.

Hyperkonvergenz

Bereits 2015 konnten sich hyper-konvergente Systeme großer Beliebtheit erfreuen und das wird in diesem Jahr keineswegs abreißen. Zwar sind hyper-konvergente Plattformen keine eierlegende Wollmilchsau, dafür aber praktische Lösungen, wenn keine Zeit oder Budget für komplexe Installationen vorhanden ist.

Hyper-konvergente Systeme fassen verschiedene Rechenzentrumskomponenten in einer „Box“ zusammen: Compute, Storage, Netzwerk und Hypervisor sind hier gebündelt. Das eignet sich ideal als „Kleinst-RZ“ für Außenstellen, Niederlassungen großer Konzerne oder gar als eigene IT-Ressource für einzelne Abteilungen. Einziger Nachteil: Beim Skalieren muss der Anwender gleich alles auf einmal erweitern und kann nicht wie bei konvergenten Angeboten nur die Komponente aufstocken, die es benötigt.

Atlantis, DataCore, Nutanix und SimpliVity sind unter anderem in diesem Markt unterwegs, dem die IT-Gemeinde noch viel Potenzial prognostiziert. Aus diesem Grund bieten auch alteingesessene Speicherhersteller wie HP, Dell (mit Nutanix), HP, Hitachi Data Systems und Huawei, aber auch Virtualisierungs-Spezialist VMware entsprechende Lösungen an.

Software-defined Storage

Eigentlich könnte man meinen, zum Thema Software-defined Storage sei alles gesagt und auch schon am Markt zu haben. Der letztjährige Trend war aber erst der Anfang, denn nach wie vor propagieren die IT-Anbieter das Software-dominierte Rechenzentrum – Software-defined Data Center (SDDC) – und damit stehen auch weitere Entwicklungen auf dem Gebiet ins Haus.

Da sich die Branche auch nicht wirklich auf eine gemeinsame Definition des Begriffs SDS einigt, lässt das auch bei den Produkten Variationsvielfalt zu, die wir verstärkt in 2016 sehen werden. Vor allem Software-defined im Paket – sprich im Bündel mit einer Appliance – wird verstärkt auf den Markt rücken. Die Software bestimmt hier nach wie vor den Funktionsumfang der Hardware, der Anwender muss sich nur nicht selbst um die Hardware kümmern und sich im Zweifel auch nicht mit Kompatibilitätsproblemen auseinandersetzen. Somit ist eine solche SDS-Lösung eher eine erweiterte Firmware-optimierte Appliance, wobei die Firm-respektive Software eben auch nebenbei mit anderen Storage-Hardware-Freunden „spielen“ kann.

SDS als Teil des großen SDDC-Ziels wird auch 2016 eine wichtige Rolle in der Speicherlandschaft spielen. Und es wird sich zeigen, dass bei aller Flexibilität und Funktionalität der Software die Hardware eben nicht völlig zur Nebensache gerät.

Object Storage

Zwar ist auch Object Storage keine brandneue Technologie mehr, aber die zunehmende Lösungsvielfalt und Einsatzfähigkeit machen Objektspeicher auch im Jahr 2016 interessant. Anders als bei File-Systemen, sichern Object-Storage-Systeme die Daten in einem flachen Namespace mit einzigartigen Eigenschaften für die Identifizierung. Diese flache Architektur erlaubt es zudem, weitaus mehr Metadaten abzulegen, wodurch die Automatisierung und das Management einfacher werden. Object Storage wird vor allem für die Langzeitdatenaufbewahrung, Backups und File Sharing verwendet.

Bislang waren die Optionen bei den Object-Storage-Systemen eher begrenzt. Die meisten nutzen ein REST-basiertes Protokoll auf proprietärer Hardware. Allerdings wandelt sich hier das Bild gerade. Viele Anbieter offerieren nun Lösungspakete, die für die IT-Abteilungen sinnvoll und nützlich sind. So gibt es zum Beispiel eine erweiterte Protokollunterstützung für NFS, CIFS und SCSI sowie kosteneffiziente Back-Ends.

Einige Hersteller fokussieren rein auf die Software, so dass sich der Anwender seine Hardware aussuchen und diese einfacher ins RZ integrieren kann. Caringo bietet seit September 2015 die Funktion FileFly, mit der sich Daten zwischen Object Storage und File Systemen verschieben lassen.

Gerade in großen Cloud-Umgebungen wird die Object-Storage-Technologie immer beliebter und das Interesse bei den Herstellern steigt entsprechend, was die Aufkäufe von Amplidata durch HGST und Cleversafe durch IBM im letzten Jahr nur verdeutlichen. Allerdings gibt es den Nachteil hoher Latenzen beim Object Storage, da die Anzahl der Metadaten so enorm ist. Jedoch spielt das in den meisten Einsatzszenarien keine große Rolle, da die Performance hier nicht im Vordergrund steht. Und auch für Data Lakes scheint Objektspeicher eine interessante Lösung zu sein – vorausgesetzt es gibt Multi-Protokoll-Support – da er hoch skalierbar und kostengünstig ist.

OpenStack

Auch wenn Open-Source-Lösungen noch nicht flächendeckend in den Rechenzentren zum Einsatz kommen, so wird trotzdem 2016 ein Jahr für OpenStack werden. Das Software-Projekt stellt eine freie Architektur für Cloud-Umgebungen zur Verfügung und umfasst mehr als nur die Storage-Komponenten. Aber gerade beim Storage scheinen sich die Hersteller fast einmütig auf OpenStack einzuschießen, wenn es um Open-Source-Lösungen geht. Swift und Cinder heißen die beiden Komponenten, die jeweils Object und Block-Storage beschreiben.

So traten immer mehr Hersteller der Initiative im letzten Jahr bei und brachten entsprechende Lösungen auf den Markt. Gerade IBM sieht für OpenStack eine rosige Zukunft und steigende Installationszahlen voraus. In die Liste der OpenStack-Lösungsanbieter reihen sich mittlerweile IBM, NetApp, Cisco, Rackspace, Nimble Storage, Pure Storage, Solidfire oder auch Mirantis und Red Hat.

Phase Change Memory

Seit mehreren Jahren nun treibt vor allem IBM die Entwicklung der neuen Speichertechnologie Phase Change Memory (PCM) voran und hat für 2016 erste Systeme in Aussicht gestellt. Phase Change Memory ist eine Halbleitertechnologie, die schneller als Flash, aber kostengünstiger als DRAM sein soll. PCM soll für Schreibprozesse stabiler sein als Flash (bis zu 10.000 Mal haltbarer), weniger Overhead verwenden und in Masse produziert für NAND-Flash-Preise über den Tisch gehen. Im Jahr 2015 gab es Technologiedemonstrationen und IBMs Aussage zu einem bald erscheinenden System. Träfe dies zu, so wäre PCM die erste Alternative zu Flash am Markt. Allerdings stehen auch andere Hersteller respektive Technologien in den Startlöchern, so dass sich wohl in 2016 und folgenden Jahren abzeichnen wird, wer hier die Marktdominanz übernimmt.

Storage- und IT-Branche im Umbruch

Die nächsten IT-Jahre und so natürlich auch 2016 stehen unter dem Stern der digitalen Transformation. Eine gesamte Branche erfährt momentan einen enormen Wandel. Wir beobachten nicht nur rasante Technologieentwicklungen, sondern auch enorme Marktveränderungen – IBM verkauft Serversparte, HP splittet sich, Dell kauft EMC. Gerade die Storage-Industrie – so scheint es – muss sich neu erfinden, um am Ball zu bleiben. Herkömmliche Märkte brechen ein (Festplattensysteme) und können durch nachkommende neue Marktsegmente (Flash, Object Storage) nicht aufgefangen werden.

Immer höhere Vernetzung, das Internet der Dinge, Industrie 4.0, Always-on – all dies bringt neue Anwendungsmuster der Nutzer und noch mehr Daten hervor, die sich mit den üblichen Lösungen und Strategien nicht mehr bewältigen lassen. 2016 wird einmal mehr zeigen, welche Anbieter und Start-ups den Markt wirklich bedienen, die Anforderungen der Kunden verstehen und sich selbst transformieren können, um flexible und umfassende Lösungen zur Verfügung zu stellen.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Januar 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close