Tanusha - Fotolia

So nutzen Sie eine Gesamtkostenanalyse für Storage-Lösungen

Für eine Gesamtkostenanalyse (TCO) von Storage müssen Sie konsequent vorgehen. Wichtig sind ein Bewertungsrahmen und eine schonungslose Analyse.

Um die tatsächlichen Betriebskosten in einer Gesamtkostanalyse (Total Cost of Ownership TCO) der Datenspeicherung zu bewerten, ist sorgfältiges Vorgehen notwendig.

Tatsache ist, dass die TCO nicht einfach objektiv zu messen ist. Man benötigt dafür Konsequenz seitens der IT-Leitung und einen Bewertungsrahmen, der als Kompass für die Navigation durch die mehrdimensionalen und komplexen Aspekte der Datenspeicherung dient. 

Die IT sollte sich bei der TCO-Analyse von Storage-Lösungen auf diese sechs Grundpfeiler stützen:

1. Kosten

Analysieren Sie die Kosten für Hardware/Software/Services pro nutzbaren Terabyte (TB) und nicht pro effektivem oder gar rohem TB, da diese Angabe oft genutzt wird, um den Wert eines Angebots aufzublähen. Zum Glück kennen die meisten erfahrenen Speicherprofis den dynamischen Zusammenhang zwischen Preis, Leistung und tatsächlicher Kapazität. Wenn ein Anbieter beispielsweise ein besseres Datenreduktionsverhältnis bietet, kann das als besserer Preis oder Wert wahrgenommen werden. 

Unabhängig davon sollte man für bestimmte Datentypen jedoch niemals eine hohe Reduktion und für verschlüsselte Daten überhaupt eine Reduktion erwarten. Außerdem sind die meisten Reduktionsalgorithmen umgekehrt proportional zur Leistungsfähigkeit einer Lösung. Es handelt sich um eine viel zu häufig skrupellos angewendete Verkaufsstrategie, die Spitzenleistung und maximale tatsächliche Kapazität für die Preisaufschlüsselung zu verwenden, obwohl man genau weiß, dass niemals beide gleichzeitig erreicht werden. 

2. Leistung

Messen Sie die Leistung für Ihr typisches Workloadprofil hinsichtlich Latenz, Durchsatz oder Bandbreite und Input/Output Operations pro Sekunde (IOPs). Ein Beispiel für ein typisches Workloadprofil könnte 70/30/50 lauten, das heißt 70 Prozent Lesezugriffe, 30 Prozent Schreibzugriffe und 50 Prozent Cache-Operationen mit unterschiedlichen Blockgrößen von sehr klein (0-8KB), klein (8-64KB), mittelgroß (64-512KB) und groß (512KB). 

Die Latenz beschreibt die Dauer einer einzelnen I/O-Operation in Mikro- oder Millisekunden (µs/ms), also die Schnelligkeit, in der ein Speichersystem auf Lese- und Schreibanfragen reagiert. Der Durchsatz beziehungsweise die Bandbreite bezeichnet die Fähigkeit eines Speichersystems, ein bestimmtes Datenvolumen in einer festgelegten Zeitspanne zu übertragen. Die Angabe erfolgt in Gigabyte oder Megabyte pro Sekunde (GB/Sek oder MB/Sek). Der IOPs-Wert gibt an, wie viele Lese/Schreibanfragen ein Speichersystem pro Sekunde bedienen kann.   

3. Tatsächliche Kapazität

Informieren Sie sich über die tatsächliche Kapazität in der Form von nutzbarem physischem Speicher in TB. Es kann vorkommen, dass ein Anbieter versucht, diesen Wert zu verzerren, indem er die Rohkapazität angibt und die Berechnung des Bedarfs für die RAID-Sicherung und den Ersatz dem Käufer überlässt. 

Achten Sie auf irreführende Marketing-Strategien, bei denen nutzbare physische TB nicht von effektiven TB unterschieden werden, indem beispielsweise angegeben wird, dass ein 100-TB-Speicher mit einer Datenreduktion von 5:1 einer Kapazität von 500 nutzbaren physischen TB entspricht. Niemand kann garantieren, dass diese Reduktion immer für alle Daten erreicht wird. Die meisten Reduktionsalgorithmen beeinträchtigen die Rechenleistung eines Systems. Verschlüsselte Daten sollten ausgenommen werden und alle Post-Processing-Algorithmen benötigen nach wie vor physischen Speicherplatz, um die effektiven TB zu optimieren.

4. Umgebungsbedingungen

Beachten Sie Betriebskosten für Strom, Kühlung und Platzverbrauch. Durch das zunehmende Datenvolumen werden diese Kosten voraussichtlich steigen. Sie können nur durch Konsolidierung und höhere Effizienz gebremst werden, indem Sie sich auf das Mooresche Gesetz stützen und mehr mit weniger erreichen.

5. Funktionalität

Bestimmen Sie den Wert der lizenzierten und unterstützten Softwarefunktionen. Dazu zählen Management-Funktionen wie Benutzeroberfläche (GUI), Kommandozeileneingabe (CLI), Snapshots, Klone, Replizierung, Überwachung von Kapazität/Leistung (SRM), Integration mit Drittanbietern wie VMware und anderen, automatisierte OS-Serverkonfiguration/Best Practices, Verschlüsselung, RESTful API und OpenStack.

6. Einfache Verwaltung

Vergessen Sie nicht den Wert der Benutzerfreundlichkeit. Die Benutzerfreundlichkeit kann an der Zeit gemessen werden, die benötigt wird, um 100 Petabytes (PBs) zu verwalten.

Ein fester Bewertungsrahmen macht die Einschätzung von neuen und damit oft überbewerteten Storage-Angeboten um Einiges einfacher. Zudem hilft es dem IT-Führungspersonal, den Wunsch seiner Mitarbeiter nach den neuesten, angeblich unentbehrlichen Technologien zu relativieren und gleichzeitig ihre treuhänderische Verantwortung dem Unternehmen gegenüber wahrzunehmen. Das ist besonders wichtig angesichts des Hypes von Analysten und Industrieexperten um die Cloud, Solid State Disks (also RAM, SSD oder Storage Class Memory (SCM)), softwaredefinierten Storage und konvergierte und hyperkonvergierte Infrastrukturen.

„Vergessen Sie nicht den Wert der Benutzerfreundlichkeit. Die Benutzerfreundlichkeit kann an der Zeit gemessen werden, die benötigt wird, um 100 Petabytes  zu verwalten.“

Ed Garver, INFINIDAT

Ohne die Standhaftigkeit des Führungspersonals und diese objektiven Maßstäbe ist die erste Reaktion von Storage-Anwendern möglicherweise, die Investitionen zu erhöhen, um diese neuen Technologien zu verstehen und nicht hinter der Konkurrenz zurückzufallen. 

Diese Vorgehensweise bringt jedoch zwei Fallstricke mit sich, die das Erreichen von optimalen TCO verhindern können: Oft benötigt man übermäßige finanzielle Ressourcen, um diese Technologien zu betreiben, so dass das Budget schnell überstrapaziert wird. Es gibt unzählige Beispiele für das Glitzersyndrom, bei dem die Investition in ein neues, glamouröses Produkt eine Fehlentscheidung war (siehe Beta und VHS Videorekorder, proprietärer und offener Standard, NOR und NAND Flash).

Fazit

Das tatsächliche Geheimnis für den Weg zum Erfolg liegt darin, den Storage-Hype zu ignorieren und herauszufinden, welche Lösungen tatsächlich die effektivste TCO bieten können.  Dazu gehört auch das Messen und Managen mit einem strengen Effizienz- und Effektivitätsrahmen, um sicherzustellen, dass die TCO-Grundpfeiler für den IT-Storage stabil stehen.

Über den Autor:
Ed Garver ist Technical Sales Director bei INFINIDAT

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Kostenvergleich: Hyper-converged Systeme vs. SAN/NAS.

Sieben Tipps, die die Effizienz und Leistung von Storage verbessern.

OpenStack und Co.: Versteckte Kosten von Open-Source-Cloud-Plattformen.

Disaster-Recovery-Kosten-Vergleich: inhouse vs. Cloud.

Artikel wurde zuletzt im August 2016 aktualisiert

Erfahren Sie mehr über Enterprise-Storage: Planung und Management

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close