bahrialtay - Fotolia

Kosten, Performance, Verfügbarkeit: Die Storage-Infrastruktur in Balance halten

Wachsende Datenbestände und Anforderungen sowie stagnierende Budgets erschweren es Administratoren, eine Balance der Storage-Infrastruktur zu finden.

Die Welt der Datenverarbeitung steht unter einem bisher unbekannten hohen Druck, weil Datenmengen immer schneller zunehmen und damit die Rechenzentrumsressourcen so hoch belastet werden wie nie zuvor. Auch die Art, wie wir Daten nutzen, ändert sich, was hauptsächlich auf die Entwicklung und die zunehmende Nutzung von Cloud Computing, Virtualisierung, Big Data, dem Internet der Dinge und Social Media zurückzuführen ist.

Dieses exponentielle Wachstum beruht teilweise auf erheblichen technologischen Fortschritten wie zum Beispiel mehr Online- und mobilen Transaktionen, hochauflösenden Bildern und Videos sowie auf neuen Vorschriften zur Langzeitspeicherung von digitalen Informationen. Die daraus resultierenden Daten sind eine sehr wertvolle Ressource für die meisten Unternehmen, die erfasst und analysiert werden müssen, um sie in nützliche und aufschlussreiche Informationen zu verwandeln, mit denen der Umsatz gesteigert werden kann.

Diese Datenabhängigkeit ist auch der Grund dafür, weshalb die meisten Unternehmen so sehr auf ihre IT-Infrastrukturen angewiesen sind. Laut der IDC Studie „Customer Storage Priorities – Breaking down Storage Tradeoffs“ sind Zuverlässigkeit und Performance tatsächlich die wichtigsten Faktoren, die zur Optimierung von Speicherinfrastrukturen beitragen. Durch begrenzte Budgets, zunehmende Komplexität und die eingeschränkten Möglichkeiten von aktuellen Speicherarchitekturen sehen sich Unternehmen zunehmend dazu gezwungen, sich zwischen Skalierbarkeit, Verfügbarkeit, Performance und einem guten Kostenfaktor zu entscheiden.

Das Problem ist, dass es trotz all der technologischen und industriellen Fortschritte keine einzige Storage-Lösung gegeben hat, die alle diese Anforderungen erfüllen und gleichzeitig wettbewerbsfähig bleiben konnte. Das liegt daran, dass zum Erreichen eines optimalen Speichersystems Variablen wie Verfügbarkeit, Zuverlässigkeit, Performance, Verwaltbarkeit und die Integration von Anwendungsökosystemen beinahe bis zur Perfektion aufeinander abgestimmt werden müssen.

Verfügbarkeit und Zuverlässigkeit

Laut der oben erwähnten IDC Studie treten Speicherausfälle nach wie vor vor allem in großen Unternehmen häufig auf. Von den Studienteilnehmern gaben 35 Prozent an, dass es in ihrem Unternehmen während der letzten 18 Monate mindestens einen Fall der Nichtverfügbarkeit der Speicherservices gegeben hat. Diese Ausfälle ziehen häufig langwierige Wiederherstellungsprozesse nach sich, die zu Daten- und Umsatzverlusten führen, so dass die Kosten sich leicht auf mehrere Millionen Dollar pro Stunde belaufen können. Daher ist es keine Überraschung, dass IDC auch angibt, dass Entscheidungsträger die Zuverlässigkeit als eine der wichtigsten Anforderungen für das Management von großen Datenvolumen genannt haben.

Performance

Die meisten Unternehmen sind auf die Performance ihrer Rechenzentren angewiesen, wenn es darum geht, die Produktivität und Bereitstellung von kritischen umsatzgenerierenden Services aufrechtzuerhalten. Beim Design einer IT-Infrastruktur ist es entscheidend, die Kapazitäten zu definieren, die für die effektive Unterstützung des Geschäfts notwendig sind. Der Durchsatz sollte gleich bleiben und geringe Latenzschwellenwerte aufweisen; die Daten müssen hoch verfügbar sein, und zwar unabhängig davon, ob sie von einem Benutzer vor Ort oder unterwegs abgerufen werden. Die Speicherinfrastruktur muss beispielsweise mit Spitzen im Datenverkehr umgehen und dabei die Auswirkungen auf die Performance minimal halten oder sogar ganz vermeiden können – genau mit diesem Punkt aber haben viele Lösungen heutzutage noch ihre Probleme. Die benötigte Performance kann durch die Wahl der richtigen Technologie für die spezifischen Geschäftsanforderungen erzielt werden. Dabei muss die ideale Lösung nicht unbedingt ein einziges System wie ein reines Festplatten- oder Flash-basiertes Array sein, sondern kann beispielsweise auch ein hybrides Speichersystem sein. Vielleicht ist es auch optimal, einen Teil des Speichers vor Ort zu betreiben und den Rest in die Cloud zu verschieben. Das Motto heißt hier Flexibilität.

Kosten / TCO

Bisher war die Fähigkeit eines Speichersystems, die Anforderungen eines Unternehmens zu erfüllen, direkt an seine Kosten gekoppelt: Je mehr es zu bieten hatte, desto teurer war es. In den letzten Jahren haben sich jedoch der Stromverbrauch, die Kühlung und der Platzverbrauch im Rechenzentrum als zusätzlicher Kostenfaktor entpuppt, den die meisten aktuellen Lösungen auf dem Markt noch keine weitere Beachtung geschenkt haben. Es ist also klar, weshalb die Capex- und Opex-Kosten bei Kaufentscheidungen von Speichern unbedingt in Betracht gezogen werden müssen: Etwa die Hälfte der Teilnehmer an der IDC-Studie haben TCO, also die Anschaffungs- und Betriebskosten, als den wichtigsten Entscheidungsfaktor genannt.

Natürlich ist die Bedeutung von TCO heute anders als noch vor ein paar Jahren: Systemleistung, Verfügbarkeit und Benutzerfreundlichkeit können die Käufer jetzt leicht überzeugen. Das ist auch der Grund, weshalb einige neuere Lösungen schnell an Boden gewinnen – sie wurden von Grund auf in Abstimmung mit den aktuellen Anforderungen an Storage-Umgebungen entwickelt.

Integration von Ökosystemen und Plattformarchitekturen

Eines der am häufigsten auftretenden Probleme in Rechenzentren ist die Isolierung von Daten, was hauptsächlich daran liegt, dass die verschiedenen Abteilungen eines Unternehmens getrennt arbeiten und nicht effizient miteinander kommunizieren. Das führt häufig zu spezifischen Kommunikationsausfällen zwischen diesen Teams, was wiederum zu Problemen führen könnte. So können beispielsweise auch dann neue Ressourcen angefordert werden, wenn das Neudesign der bestehenden vielleicht eine bessere Lösung wäre, oder vielleicht entwickelt ein Team eine neue Policy, die jedoch gegen die Unternehmensrichtlinien verstößt.

Eine mögliche Lösung für dieses Problem ist eine engere Integration dieser Silos, also ein zentralisierter und dennoch transparenter Ansatz für das Rechenzentrums-Management. Das sollte zu einem tieferen Verständnis der IT-Abteilung für die Bedürfnisse und Erwartungen jedes Teams führen – von HR über Anwendungen bis hin zu Finanzen und Sicherheit. Mit solch einem Modell können Organisationen zudem einen Grad an Effizienz erreichen, der erst durch eine gemeinsame Speicherstrategie und umfassendes Rechenzentrums-Management möglich wird.

Zudem erwarten Anwender einen hohen Grad an Flexibilität innerhalb ihrer Speicherumgebungen, damit diese sekundären Anwendungen mit solchen Eigenschaften wie Zuverlässigkeit, geringen Latenzen, Verfügbarkeit, Durchsatz und Skalierbarkeit auf preiswerte Weise unterstützen. Um diese Herausforderungen direkt anzugehen, wurde die innovative, einfache und simple Integration von Speichersystemen ein einem Storage-Ökosystem entwickelt. Dadurch müssen nun keine Kompromisse mehr zwischen Speicherkapazität, Leistung, Zuverlässigkeit und Kosten eingegangen werden.

Da Speicherumgebungen so schnell wie nie zuvor wachsen, wird auch ihr Management immer komplizierter. Die begrenzten Möglichkeiten von alten Speicherarchitekturen werden immer deutlicher erkennbar, was zu einer wachsenden Nachfrage für neue, nativ designte Speicherarchitekturen führt. Alles andere könnte sich schließlich negativ auf die Geschäftsleistung auswirken.

Verwaltbarkeit

Eine gut gemanagte IT-Infrastruktur sorgt für minimale Kosten und macht nur sehr wenige zusätzliche Schulungsmaßnahmen und Ressourcen erforderlich. Es handelt sich dabei um einen der größten Faktoren für die Reduzierung der Betriebskosten in der IT. Dennoch wird ein großer Teil der Speicherumgebung nach wie vor manuell konfiguriert: Zu viel Zeit des Speicher-Administrators wird häufig durch alltägliche Aufgaben in Anspruch genommen, die eigentlich automatisiert werden müssten, um mehr Zeit für strategische Entscheidungen zu haben.

„Eine gut gemanagte IT-Infrastruktur sorgt für minimale Kosten und macht nur sehr wenige zusätzliche Schulungsmaßnahmen und Ressourcen erforderlich.“

Sabo Diab, Infinidat

xxx

Es ist deutlich erkennbar, dass die Reduzierung der operativen Komplexität sehr wichtig für das Erreichen von mehr Geschäftsagilität ist – das wiederum ist grundlegend für jedes Unternehmen, das innovativ sein möchte. Auch diese Tatsache wurde in der Studie von IDC belegt: Das Speicher-Management hat sich als ein besonders wichtiger Faktor herausgestellt, der Einfluss auf viele Kaufentscheidungen im Zusammenhang mit der Speicherung hat. Die CIOs sollten nach Storage-Tools suchen, die die Effizienz ihrer Administratoren steigern und die Bereitstellung von Anwendungen beschleunigen.

Ausgeglichene Storage-Infrastruktur ist keine „Mission Impossible“

Der alte Spruch, dass „es für jeden Topf einen passenden Deckel gibt“, war noch nie so zutreffend für die Datenspeicherindustrie wie heute. Der Markt ist überflutet mit unterschiedlichen Technologien, Architekturen und Lösungen. Daraus die beste Kombination zu erstellen, ist ein Prozess, der so einzigartig wie jedes Unternehmen ist. Man muss dabei die Art der Daten, die Benutzeranforderungen und -erwartungen, die SLAs, physische und rechtliche Einschränkungen und etliche weitere Aspekte in Betracht ziehen. Was steht also ganz oben auf der Prioritätenliste? Die Fähigkeit einer Infrastruktur, sich an das Wachstum und die Änderungen in einem Unternehmen anzupassen. Wenn man auf der Suche nach einem Speichersystem ist, das die Anforderungen der modernen Rechenzentren von heute erfüllt, sollte man vor allem darauf achten, zu welchen Kompromissen ein Anbieter den Anwender überreden will.  Es handelt sich schließlich darum, ein gut durchdachtes Gleichgewicht zwischen den Geschäftsanforderungen zu finden, ohne dafür gleich Haus und Hof verkaufen zu müssen. Schon Charles Darwin hat es deutlich gesagt: Es sind nicht die Stärksten, die überleben, und auch nicht die Klügsten. Es überleben diejenigen, die sich am besten an Änderungen anpassen können.

Über den Autor:
Sabo Diab ist Head of International Marketing bei Infinidat.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Februar 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Enterprise-Storage: Planung und Management

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close