Software-definierte Technologien brauchen intelligente Hardware

Viele Hersteller tun Hardware als zweitrangig ab. Doch Software-defined Lösungen funktionieren nur mit intelligenter Hardware.

Beginnen wir heute einmal mit einem kleinen Quiz:

In einem virtualsierten Data Center ist...

a) ...Storage das Problem.

b) ...Storage die Lösung.

c) ...Storage sowohl die Lösung als auch das Problem.

d) ...Storage nichts von alledem.

Das ist keine einfache Frage, zugegeben. Und alle Antworten sind korrekt. Das liegt daran, dass in den meisten Rechenzentren der Flaschenhals, der die Performance in die Knie zwingt, ein bewegliches Ziel ist, wenn man alle involvierten Variablen betrachtet.

Speicherhersteller tun sich leicht, das Netzwerk als das schwächste Glied zu sehen, während die Netzwerk-Gruppe mit dem Finger auf die Storage-Riege deutet. Und beide sind vermutlich ebenso schnell dabei, die Server als den zu Flaschenhals beschuldigen, mit all den virtuellen Maschinen, die die CPU auf bis zu 100 Prozent auslasten und selbst das letzte Byte an Memory verschlingen.

Deswegen sind alle der oben genannten Antworten richtig, je nachdem welche spezifische Infrastruktur, Applikationen und Performance-Erwartungen der Anwender hat. Existieren Storage-Arrays/Applikationsserver/Netzwerkswitche, die nicht mehr so taufrisch sind, so könnte jede dieser Komponente der Bösewicht sein. Das macht es natürlich einfach, generell die Hardware als den Flaschenhals zu vermuten: Geht die Performance in die Knie, so muss doch zwangsläufig ein Stück Hardware Grund für den Leistungseinbruch sein, oder?

Speicherhersteller tun sich leicht, das Netzwerk als das schwächste Glied zu sehen.

Egal ob dies stimmt oder nicht, die Hersteller sind momentan sehr erfolgreich, uns davon zu überzeugen. Gibt es ein Problem, so ist Hardware die Nemesis. Hardware ist böse, Software ist gut.

Der gesamte Trend der Software-defined Technologien basiert auf diese Art des Denkens. Sowie man einen Abstraktionslayer zwischen Anwender, deren Anwendungen und der Hardware einfügt, ist das Problem beseitigt, meint man. Hardware verliert mehr an Bedeutung und wird weniger Thema und wir erhalten im Gegenzug alle möglichen Formen an Flexibilität und Agilität, denn die Software interessiert es überhaupt nicht, welche Hardware unter ihr vor sich hin werkelt.

Ich kann verstehen, dass Anwender dies gern glauben möchten. Oftmals sind ihre Tage damit gefüllt, sich sowohl mit Hardware als auch Software herumschlagen zu müssen. Lässt sich eine dieser Komponenten eliminieren, oder zumindest fast, dann wäre das IT-Leben schlagartig besser.

Verfechter des Software-defined-Prinzips betonen gern, dass ein Software-Layer eine gewisse Distanz zwischen Anwender und Hardware schafft und dadurch Prozesse vereinfacht, Kosten spart und die Abhängigkeit von der Hardware-Zuverlässigkeit reduziert. Dazu kann ich nur sagen: Das mag sein, das mag sein.

Für mich ist das am wenigsten überzeugende Argument, das was Freunde des Software-defined Irgendwas am häufigsten benutzen: Das ist die gleiche Art Technologie, die von Google und Facebook eingesetzt wird. Na, wenn das nicht überzeugend ist. 

Ganz bestimmt hat auch Ihre Firma Milliarden an Servern wie Google und Facebook, und wahrscheinlich verfügen Sie auch über Millionen Quadratmeter Rechenzentrumsplatz sowie über eine Million IT-Mitarbeiter, die das Ganze zusammensetzen und verwalten. Wie viele Unternehmen erreichen denn wirklich diese Web-Scale-Dimensionen, wie es uns die Marketing-Macher gern glauben machen?

Ein weiterer Schwachpunkt in der Sofware-defined-Litanei ist die Idee, dass das Hinzufügen eines Layers, den es vorher nicht gab, plötzlich alle Probleme löst. Sicher, es kann einfachere Nutzer-Schnittstellen bieten und einige der umständlichen Konfigurations-Verrenkungen eliminieren, bei denen sich selbst erfahrene Storage-Gymnasten verletzen können. 

Aber selbst mit einem coolen Layer über allem, hin und wieder muss man trotzdem noch unter die Haube schauen. Vielleicht sollten Sie sich aus diesem Grund eben nicht so weit von der Hardware entkoppeln.

Ich aber glaube der stärkste Beweis dafür, dass Storage oder andere Hardware nicht verschwinden oder weniger wichtig wird, ist, dass die gesamte Software-defined-These – sei es Speicher, Netzwerk, Server – sich auf einen Schlüsselfaktor verlässt: dass Hardware sich kontinuierlich weiterentwickelt und schneller, größer und besser wird.

Ein weiterer Schwachpunkt in der Sofware-defined-Litanei ist die Idee, dass das Hinzufügen eines Layers, den es vorher nicht gab, plötzlich alle Probleme löst.

Wir würden nicht über virtualisierte Server sprechen, wenn Intel nicht seine Multi-Core-CPUs in einer Hyper-Moore’s-Law-Geschwindigkeit entwickeln würde. Das gleiche gilt für Netzwerke, wenn diese nicht von einem zu zehn zu 25 und mittlerweile 40 Gbps aufgestockt hätten. Und es lässt sich kaum vorstellen, dass SDS auch nur ansatzweise vorangekommen wäre, hätte sich nicht Flash vor einigen Jahren hervorgetan und nun in so viele Formfaktoren wie nie zuvor entwickelt.

Haben Sie sich mal gefragt, warum VMware unbedingt Server mit Flash erfordert, damit diese dann mit Virtual SAN als Speicher fungieren können? Vielleicht liegt es ja daran, dass ohne diese fortschrittliche Hardware die Software-defined Arrays nicht die gewünschten Performance-Werte erreichen. Und nun versucht VMware sein SDS unter der EVO:RAIL-Marke an ein breiteres Publikum zu bringen, indem sie verschiedene Hardware-Hersteller als Partner ins Boot holen.

Noch immer sind die meisten SDS-Produkte in der Anzahl der Nodes und Kapazität limitiert, die sie bereitstellen können. Ebenso sieht es bei der Performance aus. Aber auch das wird sich ändern, denn die Storage-Hardware wird immer besser.

Fazit

Es geht hier nicht nur darum, dass die Hardware schneller wird, sondern auch intelligenter. Intel bringt Chips heraus, die für ganz bestimmte Umgebungen und Anwenderszenarien konzipiert sind. Speicher wird auch smarter. Ein Grund, warum SDS auf Controller verzichten kann, ist der, dass diese Intelligenz nun in den Medien integriert ist, vor allem in Solid-State-Geräten.

Es kommt also nicht darauf an, ob sie den Speicher als Lösung oder Problem im RZ halten. Hoffen wir, dass die Hersteller von Storage-Hardware weiterhin ihrem Entwicklungspfad folgen und Speichergeräte intelligenter machen, denn die Zukunft Software-defined Data Centers wird von dieser intelligenten Software abhängen.

Über den Autor:
Rich Castagna ist VP of Editorial/Storage Media Group bei TechTarget.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Dezember 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close