HGST: Die IT-Welt muss SMR lernen

Zum Jahresende positioniert sich HGST und bekräftigt seine strategischen Entscheidungen. Auch die Zukunftspläne der Firma steht fest: SMR und Helium.

Bereits im September 2014 kündigte Medienhersteller HGST zahlreiche neue Lösungen an, die das Unternehmen strategisch voranbringen sollen. Hoch-kapazitive Drives, Flash-Cluster und NVMe-SSDs gehörten ebenso zu den Ankündigungen wie die Active-Archive-Plattform, die den Anbieter vom Komponenten-Dealer zum Lösungsanbieter machen soll.

In einem kurzen Gespräch mit searchstorage.de bekräftigte Manfred Berger, Senior Manager Cloud & Mobility EMEA bei HGST, die Positionierung und künftige Ausrichtung der Firma, die sich in den bestehenden, aber auch kommenden Produkten widerspiegelt.

Noch sind nicht alle Lösungen, die Sie angekündigt haben, verfügbar. Warum dann das Trommeln um neue Produkte schon jetzt?

Manfred Berger: Bei den Septemberankündigungen handelt es sich ganz klar um strategische Aussagen. Wir wollen verdeutlichen, wo wir uns als Unternehmen positionieren und welche Technologien wir unsererseits für zukunftstauglich erachten und somit auch in diese investieren. Das zeigt sich dann natürlich wiederum an unserem Produktportfolio. 

Im Falle unserer Lösung Active Archive, die derzeit auch noch nicht in aller breite verfügbar ist, muss man hinzufügen, dass wie hier noch Tests durchführen und auf explizites Feedback bzw. Wünsche unserer Kunden reagieren wollen. Das heißt, dass das System nochmal eine Optimierung erfährt, bevor es Mitte 2015 dann in großen Stückzahlen auf den Markt kommt.

Inwiefern engagieren Sie sich im Flash-Umfeld?

Berger: Im Flash-Bereich werden wir zum einen die NVMe-fähige PCIe-SSD-Serie Ultrastar SN100 anbieten. Zudem sagen wir ganz deutlich, dass wir PCIe-Anbindungen favorisieren, gerade bei der Verbindung zu skalierbaren Flash-Lösungen. Unsere Space-Lösung nutzt PCI Express, um die Flash-Ressourcen mehrerer Server und PCIe-Gerät zu bündeln und zu verteilen. Allerdings sollte man den Flash-Markt nicht überbewerten. 

Sicher ist hier derzeit großes Potenzial und aufgrund steigender Kapazitäten steigen auch die Absatzzahlen von Drives und Systemen. Flash wird weiterhin technologisch wachsen, aber zurzeit besitzt diese Technologie einen Marktanteil von zwei Prozent. Wahrscheinlich wird es hier nur alle drei Jahre zu einer Verdoppelung der Marktchancen kommen. Es sei denn, es gibt mehr Investitionen in Herstellungswerke. Das würde dann auch die Preise fallen lassen. Momentan sind Hersteller aber eher darum bemüht, die Flash-Ausnutzung zu optimieren, was auch zu Kosteneinsparungen führt.

Spart man Kosten, wenn man sich auf Low-Cost-Flash, also MLC, einlässt?

Berger: Das ist sicher eine Methode, kurzfristig Investitionskosten zu sparen, kann sich aber im Langzeitbetrieb rächen. Wir sehen Low-Cost-Flash eher als Sackgasse oder im besten Falle als Nische. Im Prinzip ist es eine ähnliche Entwicklung wie bei den Enterprise-Festplatten. 

Auch hier hat man versucht, günstige SATA-Drives zu nutzen. Werden diese Systeme aber gefordert, was gerade bei Flash der Fall ist, so wird die Zuverlässigkeit und Leistung der günstigen Medien schnell ans Limit gebracht. Das kann sich in Ausfällen von Medien, geringerer Lebensdauer oder anderen Störungen manifestieren. Langfristig sind im Enterprise-Bereich entsprechende Drives wie beispielsweise eMLC oder SLC nicht zu ersetzen.

Wodurch lassen sich dann am besten Einsparungen erreichen?

Berger: Das Einzige, was die Kosten wirklich nach unten treibt, ist die optimale Auslastung der Systeme und somit auch der Medien. In den meisten Fällen ist die Hardware heutzutage zwischen zehn und 30 Prozent ausgelastet. In Cloud-Umgebungen will man die Ausnutzungsrate auf bis zu 100 Prozent treiben. Das muss man hier auch, weil sonst auch dieses Konzept zu teuer wird. Das gilt für alle Speichermedien gleichermaßen, sei es eine klassische Festplatte, Flash-basierte Lösungen oder anderes.

Die klassische Festplatte wird uns also weiterhin begleiten. Wie sehen Sie hier die technologische Zukunft?

Berger: Auch hier machen wir klare Aussagen, die sich in den Roadmaps unserer Produkte zeigen. Die luftgefüllte 6-TByte-Festplatte wird die letzte ihrer Art aus unserem Hause sein. Danach werden alle hoch-kapazitiven Medien mit HelioSeal-Technologie ausgestattet sein. In Verbindung mit Shingled Magnetic Recording (SMR) erreichen wir hier heute schon bis zu zehn TByte an Kapazität. Das liegt daran, dass wir durch die Helium-Füllung höhere Spurdichten erreichen und daran, dass hier mit sechs Scheiben gearbeitet wird und nicht wie in den herkömmlichen Drives mit nur fünf.

Bei diesen hoch-kapazitiven Medien reicht herkömmliches RAIDnicht mehr aus. Was sehen Sie als sinnvolle Methode, die Daten zu schützen?

Berger: Bei diesen Großen Festplatten ist selbst RAID 6 mit Spare-Medien nicht ausreichend, um zügige Restores zu gewährleisten. Hier muss der Anwender weg vom RAID-Modell und andere Wege beschreiten. Eine Alternative ist Datenreplikation, eine andere Erasure Coding oder auch Error Correcting Code (ECC) genannt. Werden Daten und Daten zudem über eine größere Anzahl an Platten verteilt, so lässt sich eine Zuverlässigkeit von bis zu 19 Neunen (99,9999...) erreichen. Ein Rebuild im klassischen Sinne ist hier nicht mehr notwendig. Ebenso haben wir dafür unseren RAID Rebuild Assist für schnellere Wiederherstellungen konzipiert.

Wie funktioniert der RAID Rebuild Assist?

Berger: Ein herkömmlicher Controller erkennt schlechte Sektoren oder einen ausgefallenen Schreib-/Lese-Kopf und verwirft daraufhin im Normalfall die gesamte Platte. Dabei kann es sein, dass eben nur ein Sektor betroffen ist und die Daten in anderen Sektoren völlig in Ordnung sind. Beim RAID Rebuild Assist werden in so einem Falle keine Schreibprozesse für diesen Drive mehr angenommen. Alle noch brauchbaren oder „gesunden“ Daten werden vom betroffenen Medium abgezogen. 

Die wirklich defekten Informationen lassen sich aus den Paritätsdaten wiederherstellen. Dadurch muss man nicht von vornherein eine gesamte Platte rekonstruieren – was bei sechs TByte nicht nur ein paar Stunden dauert – sondern muss lediglich die tatsächlich nicht mehr zugreifbaren Sektoren wiederherstellen. Das bringt eine enorme Zeitersparung. Das Konzept haben wir in einem Whitepaper detailliert erklärt. Derzeit gibt es das noch nicht in großer breite am Markt, aber gerade kleinere Software-Hersteller, die flexibler agieren, entwickeln und integrieren können, hätten damit ein Feature, das ihren Kunden echten Mehrwert bringt.

Welches Speicher-Verfahren hat für Sie das größte Zukunftspotential?

Berger: Es gibt mehrere Technologien, die sich neben der traditionellen Festplatte etablieren werden. 

Man sollte sich jetzt nicht zurücklehnen und auf HAMR, PCM oder NVMe warten. SMR kann schon jetzt kapazitive und Performance-Probleme lösen. 

Manfred Berger, Senior Manager Cloud & Mobility EMEA, HGST

Allerdings stecken viele von ihnen noch in den Anfängen. Heat-Assisted Magnetic Recording (HAMR) wird voraussichtlich erst 2017 auf den Markt kommen. Auch Phase Change Memory (PCM) ist zukunftstauglich, wird aber bei den Stückzahlen auch noch auf sich warten lassen.  

Hier haben wir bereits eine SSD vorgestellt, die bis zu drei Millionen IOPS erreichen kann. Allerdings wird PCM nicht auf großen Wafern gefertigt. Das macht die Technologie zwar immer noch günstiger als RAM, aber eben doch noch weit teurer als Flash. Auch hier würden mehr Zulieferbetriebe ein Teil des Problems lösen. Doch leider entwickeln und forschen Firmen wie IBM nur kräftig auf diesem Gebiet, die Umsetzung selbst überlassen sie Standard-Lieferanten und investieren selbst nicht in die Produktion.

RAM selbst kann eine weitere Alternative sein. File-Systeme wie ZFS beispielsweise profitieren von RAM, da hier nur kleine Writes erfolgen, was weniger gut für Flash ist, aber gut von RAM verarbeitet werden kann. Allerdings sind bei einem Stromausfall die Daten weg. Hier kann eine dedizierte RAM-Disk die Lösung sein, die mit entsprechendem Energiespeicher an Bord, die Informationen bei einem Stromausfall auf Flash spiegelt.

Aber all diese Technologien sind erst im entstehen, und obwohl wir uns auf all diesen Feldern engagieren, sehen wir zunächst die Notwendigkeit, in SMR zu investieren und hier entsprechende Produkte zu liefern.

Shingled Magnetic Recording ist also der sich durchsetzende Trend bei Speichermedien?

Berger: Die IT-Welt muss SMR lernen, wenn es die Wachstumsraten besser bedienen will, und es darf nicht so lange dauern wie die flächendeckende Nutzung von 4-k-Blöcken. Man sollte sich jetzt nicht zurücklehnen und auf HAMR, PCM oder NVMe warten. SMR kann schon jetzt kapazitive und Performance-Probleme lösen. Die Platte ist in 40.000 kleinere Zonen mit je 256 Mbyte eingeteilt und kann bis zu 16 Schreib-Pointer logisch parallel nutzen.

Bei SMR gibt es drei verschiedene Kategorien zu unterscheiden. Beim Host-managed SMR leistet das Filesystem alles. Eine Host-aware Implementation toleriert Fehlverhalten auf Host-Seite, was ehrlich gesagt sub-optimal und eher eine Einladung für schlechten Code ist. Dann gibt es noch Device-managed Lösungen, bei denen die Platten intern alles abarbeiten, was allerdings die Platte auch mehr in Anspruch nimmt als ihr gut tut. Die beste Methode ist meines Erachtens das Host-managed SMR.

Aber ich möchte generell nochmal betonen, dass man um SMR nicht herum kommen wird. Das Perpendicular Magnetic Recording (PMR) – also herkömmliche Drives – wird sicher nicht abgeschafft, aber bei acht TByte ist Schluss. Mit SMR lässt sich weitaus mehr an Kapazität erreichen. Letztlich könnten die Kapazitätsunterschiede bei bis zu 65 Prozent liegen. Die IT-Welt muss also SMR lernen und dies bald.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close