alphaspirit - Fotolia

F

HP antwortet: Wie sich das Internet of Things auf Storage auswirkt

Eine Frage, vier Antworten. Hier antwortet Andreas Hausmann von HP auf unsere Frage, was das Internet der Dinge und Storage miteinander zu tun haben.

TechTarget fragt und Industrieexperten antworten. In unserer vierteiligen Serie antwortet hier Andreas Hausmann, Strategist bei Hewlett-Packard EMEA, auf die Frage, wie sich das Internet der Dinge und Storage bedingen.

Das Internet der Dinge wird von vielen Herstellern und Industrievertretern geradezu heraufbeschworen, mit allen Vor- und Nachteilen. Was aber bedeutet das für die Storage-Branche und die Speicherlandschaften in heutigen Rechenzentren? Wie beeinflusst das IoT wirklich unsere Storage-Anforderungen und wo müssen Anbieter wie Anwender (Unternehmen) umdenken und neue Wege beschreiten? Oder reicht es, lediglich „am Ball“ zu bleiben, Erweiterungen anzuschaffen und den Storage modern zu halten? Vielleicht ist es ja doch nur ein Hype, den man technisch aussitzen kann.

Andreas Hausmann: Das Mooresche Gesetz hat sich vier Jahrzehnte bewährt. Deshalb haben unsere heutigen Mobiltelefone mehr Rechenleistung als ein Mainframe-Computer aus den 1960er Jahren, bei einem Bruchteil der Größe und Kosten. Aber wir müssen uns mit der Tatsache abfinden, dass wir langsam aber sicher an eine Skalierungsgrenze stoßen werden. Der beruhigende Rhythmus, in dem sich die Computerleistung alle 12 bis 24 Monate verdoppelt, droht zu einem Ende zu kommen. Und das hängt mit den Technologien zusammen, die wir nutzen, um unsere Daten zu speichern: DRAM und Flash.

Andreas Hausmann,
Strategist, Hewlett-Packard
EMEA

Warum müssen wir die Rechenleistung weiter skalieren, sogar stärker skalieren als je zuvor? Es liegt zu großen Teilen am Internet der Dinge. Dieses wird künftig dramatisch höhere Anforderungen an unsere Computer stellen, zumal die geforderten Berechnungen oft in Echtzeit stattfinden müssen. Gartner geht bekanntlich davon aus, dass die Zahl vernetzter Dinge bis 2020 auf rund 25 Milliarden ansteigen wird; auch sollen in fünf Jahren bereits rund eine Viertelmilliarde vernetzter Fahrzeuge auf den Straßen der Welt unterwegs sein. Und, um nur ein Beispiel zu nennen: alleine die Turbine eines Düsenflugzeugs produziert rund 1 Terabyte Daten pro Stunde.

Während wir also davon ausgehen müssen, dass die Computerleistung künftig noch schneller wachsen muss als in der Vergangenheit, hinkt die Leistungsentwicklung von DRAM bereits seit einigen Jahren dem Mooreschen Gesetz hinterher. Wie die Grafik zeigt, waren wir diesbezüglich zur Jahrtausendwende schon zwei Jahre im Rückstand. Heute beträgt der Rückstand schon ein Jahrzehnt. Chiphersteller auf der ganzen Welt versuchen zwar mit einigem Erfolg, die Skalierung der DRAM-Dichte zu beschleunigen, aber das gerät an physikalische Grenzen.

Flash-Speicher ist noch nicht so nah an seiner Kapazitätsgrenze wie DRAM. Flash-Speicher kann einfacher skalieren. Aber das Problem gibt es auf lange Sicht auch hier. Skalierung der Flash-Speicherkapazität bedeutet, dass die Zahl der Elektronen sinkt, die jeweils ein Bit speichern. Darunter leiden der Erhalt der Daten und die Lebensdauer der Speicherzellen. Zudem geht Skalierung bei Flash auf Kosten der Lese/Schreib-Geschwindigkeit und der Fähigkeit, einzelne Bits zu adressieren.

Wir könnten auf Durchbrüche bei DRAM- und Flash-Technologie warten, die uns auf den Pfad des Mooreschen Gesetzes zurückbringen. Es ist aber unwahrscheinlich, dass das passieren wird. Wir brauchen deshalb einen grundlegend neuen Ansatz – eine neue Technologie, die uns in die Lage versetzt, massive Datenmengen zu einem Preis zu verarbeiten, den sich jeder leisten kann.

HPs Lösung für das beschriebene Problem ist die Memristor-Technologie als Ersatz sowohl für DRAM als auch Flash. Anstatt Elektronen nutzen Memristoren Ionen zum Speichern von Daten. Wird Ladung auf einen Memristor gebracht, bewegen sich die Ionen ein kleines bisschen, und das führt zu einer messbaren Veränderung des Widerstandes. Dieser Widerstand bleibt bestehen, auch wenn der Strom ausgeschaltet wird. Im Unterschied zum flüchtigen Wesen der Elektronen bleiben die Ionen dort, wo man sie hingestellt hat.

Wir sind der Überzeugung, dass Memristoren alle Vorteile in sich vereinigen, die DRAM und Flash in ihren jeweiligen Nischen zu bieten haben – aber ohne deren Nachteile. Memristoren sind so schnell wie DRAM und so billig wie Flash und verbrauchen massiv weniger Energie als beide. Das wichtigste aber ist: Memristoren lassen sich in mehrere Dimensionen skalieren. Memristoren können zum Beispiel auf mehrere Ebenen gestapelt werden. Mehrere Bits pro Zelle zu speichern ist ebenfalls problemlos machbar. Damit können wir eine heute unvorstellbare Bit-Dichte erreichen.

Die Halbleiterindustrie arbeitet derzeit an mehreren anderen Nachfolgetechnologien für die heutigen Speicher. Zwei der vielversprechendsten sind Spin-Transfer Torque RAM (STT-RAM) und Phase-Change Memory (PCM). Beide Technologien haben allerdings ihre Nachteile. STT-RAM zum Beispiel ist ein Kandidat für die DRAM-Nachfolge, aber letztlich skaliert diese Technologie nicht genug. PCM wiederum ist ein Kandidat für die Flash-Nachfolge, verspricht eine hohe Dichte und Energieeffizienz. Das Problem dieser Technologie ist aber die Schreibzeit. Beide Technologien lösen ein paar Probleme, dafür bringen sie neue mit sich. Das ist der Grund, warum wir uns bei HP entschieden haben, uns auf die Entwicklung des Memristors zu konzentrieren.

Memristoren vereinen Hauptspeicher (DRAM) und Massenspeicher (Flash) und bilden einen großen Speicherpool. Es werden also Programme und Daten im gleichen Medium abgelegt. Damit ist kein Auslagern (swapping) der Daten auf den Massenspeicher nötig. Die Daten werden dort verarbeitet, wo sie abgelegt worden sind.

Diese vereinfachte Architektur erfordert ein komplett neues Betriebssystem. Bisher sind die Betriebssysteme zu 80 Prozent damit beschäftigt, Datenpakete zwischen Haupt- und Massenspeicher hin und her zu bewegen. Dies fällt in The Machine komplett weg. Deshalb müssen neue Algorithmen entwickelt werden.

Die Art und Weise, wie Daten bearbeitet werden, wird neu definiert. HP arbeitet dabei mit Universitäten und Firmen rund um den Globus zusammen. Es wird ein neues Zusammenspiel zwischen neuer Hardwarearchitektur, Software und Anwendungen entstehen. Damit stehen wir vor einem großen Schritt in der Weiterentwicklung der IT, die dem Mooreschen Gesetz wieder Raum und Luft verschafft, den gewohnten Rhythmus weiterzuführen.

Über den Autor: 
Andreas Hausmann ist Strategist bei Hewlett-Packard EMEA.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im August 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close