Daten sind die Währung der New Economy

Noch nie gab es so viele Daten und Optionen, sie auszuwerten. Das macht sie immer wichtiger und letztlich zur neuen Geschäftswährung.

Angetrieben von der wachsenden Zahl an Anwendungen, Geräten und Datentypen – vom Internet der Dinge (IoT) ganz zu schweigen –, verdoppelt sich die Menge der Daten, die wir produzieren und vervielfältigen, alle zwei Jahre. 

Darüber hinaus belegt eine von HGST in Auftrag gegebene Studie von Ende 2014, dass 86 Prozent der befragten CIOs und Entscheidungsträger im IT-Bereich glauben, dass alle Daten, die erzeugt werden, einen Wert haben, sofern das Unternehmen in der Lage ist, diese optimal zu speichern, aufzurufen und zu analysieren.

Nigel Edwards,
Vice President, EMEA Sales
und Channel Marketing, HGST

Der Wert von Daten verändert die Wettbewerbslandschaft und zwingt Unternehmen dazu, sich neu aufzustellen und ihre Rechenzentren – in allen Bereichen, vom Storage bis zur Anwendung – neu zu konzipieren, da sie nur so mit der neuen Marktdynamik Schritt halten können. 

Im Jahr 2014 fand eine von PWC durchgeführte Umfrage heraus, dass 29 Prozent aller kritischen Entscheidungen auf Grundlage interner und externer Daten und Analysen erfolgten. Diejenigen, die um die Macht der Daten wissen, sehen hierin eine Chance. Darüber hinaus sind diejenigen, die ihre Entscheidungen auf der Grundlage von Daten fällen, für die Zukunft hervorragend aufgestellt.

Das Volumen, die Geschwindigkeit, die Langlebigkeit und der Wert von Daten heben die Bedeutung von Storage in Rechenzentren hervor. Die richtige Speicherstrategie ist der Schlüssel für eine optimierte Infrastruktur und die Möglichkeit, die Macht, die in den Daten steckt, voll auszuschöpfen. Hier stelle ich Ihnen fünf Trends vor, denen sich die Speicherlösungsbranche meiner Meinung nach gegenübersieht:

In Rechenzentren werden Helium-HDDs luftgefüllte Festplatten ersetzen

Heliumgefüllte Festplatten sorgen dank einer im Vergleich zu luftgefüllten Festplatten stabileren und zuverlässigeren Aufzeichnungstechnik für eine größtmögliche Kapazität je Festplatte. Der geringere Energieverbrauch von Festplatten mit Heliumfüllung sorgt zudem für die größtmögliche Gehäuse- und Rackdichte in der Branche.

Zusammengenommen senken diese Vorteile die Gesamtbetriebskosten je Terabyte auf einen extrem niedrigen Wert. In Anbetracht dieser klaren Vorteile werden sich Festplatten mit Heliumfüllung bei horizontalen Skalierungen, wie etwa Active Archive- oder Cloud-Speicher durchsetzen.

Die Infrastruktur für den Datenzugriff muss sich an der „Sechs-Sekunden-Regel“ messen lassen

Sechs Sekunden werden unter Infrastruktur-Architekten der neue Standard für den Datenzugriff werden. Wie schon von Brian Shackel in seinem Akzeptanzparadigma ausgeführt, werden sich sechs Sekunden als die Grenze dessen durchsetzen, was beim Datenzugriff noch akzeptabel ist. 

Hochkapazitive Helium-Festplatten sollen in großem Stil in Data Center einziehen.

Aufgrund der Sechs-Sekunden-Regel werden sich Rechenzentrums-Architekten nicht länger zurücklehnen und ältere, sogenannte „kalte“ Daten nach dem Motto „Einmal speichern, hoffentlich nie mehr lesen“ auf Magnetbandsysteme (Tape Libraries) legen können. Stattdessen müssen Unternehmen erkennen, dass Daten nur solange wertvoll sind, wie sie auch kurzfristig, das heißt nahezu verzögerungsfrei, aufgerufen werden können, da ihr Wert nur so wirklich genutzt werden kann. 

Das bedeutet, dass es Festplatten-basierter Active-Archive-Systeme bedarf, durch die auf Daten in weniger als sechs Sekunden zugegriffen werden kann, da die Benutzer ansonsten das Interesse an den Daten verlieren.

All-Flash ist kein Allheilmittel: Architekten müssen auf Geschwindigkeit und Kapazität setzen

In Zukunft müssen Speicherlösungen für Rechenzentren weit mehr als nur auf der Geräteebene optimiert werden. Alle Architekten müssen dabei zwei besondere Wege berücksichtigen, wie ein komplettes Rechenzentrum konzipiert werden kann. Anwendungen mit dem Schwerpunkt auf der Performance werden auf Hochleistungsarchitekturen zurückgreifen, um von den neuen NVMe-over-Fabrics-Standards und der Effizienz eines Shared SAN zu profitieren. 

Kapazitätsorientierte Anwendungen hingegen werden einen völlig anderen Ansatz wählen. Dieser konzentriert sich auf eine hohe Speicherkapazität, wobei Active-Archive- und Objektspeicherlösungen zum Einsatz kommen, um ein ungekanntes Maß an Skalierbarkeit, Effizienz und Wirtschaftlichkeit zu erreichen. Dieser Wandel im Architekturdesign ist besonders spannend, da er einen „positiven Teufelskreis“ in Gang setzt, in dem vertikale Innovation den Kundenerfolg allgemein vorantreibt.

Die Cloud wird zum obligatorischen „dritten Standbein“ der Rechenzentren

Cloud-Strategien ermöglichen eine dritte Alternative, welche die auf Hochleistung beziehungsweise hohe Kapazität getrimmten Architekturen in Rechenzentren ergänzt oder mit diesen zusammenarbeitet. Mittlerweile zweifelt keiner mehr daran, dass sich Cloud-Architekturen etabliert haben. 

Vielmehr sind öffentliche, private oder hybride Systemarchitekturen schon vielfach im Einsatz. Was weiter in den Blick rücken wird, ist jedoch die Art und Weise, wie der Wert der Daten, deren Langlebigkeit, Aktivität und architektonische Optimierung allgemein von der Cloud profitieren. Rechenzentren mit Sinn für die Ökonomie der Daten in ihrem Unternehmen werden skalierbare Cloud-Architekturen am besten einzusetzen wissen und den Wert der betrieblichen Daten voll ausschöpfen können.

Während die Infrastrukturbudgets klein bleiben, vervielfachen sich die Erwartungen an die Daten

Die IDC hat ermittelt, dass der Markt für Big-Data-Technologien und -Dienstleistungen jährlich um insgesamt 27 Prozent wachsen und im Jahr 2017 bereits 32,4 Milliarden US-Dollar erreichen wird.

Die Anzahl der IT-Fachkräfte wird sich in absehbarer Zeit aber wohl kaum verdoppeln. Der letzte Arbeitsmarktbericht aus den USA zeigt vielmehr, dass die Einstellungen im IT-Bereich in den letzten fünf Jahren stagniert sind. Das bedeutet, dass sich die Menge an Daten, die von jeder heute tätigen IT-Fachkraft bewältigt werden muss, bis zum Jahr 2020 verachtfachen wird. 

Das zeigt deutlich, dass die Skalierbarkeit der Infrastruktur von Rechenzentren allein nicht ausreichen wird. Vielmehr muss ein größeres Augenmerk auf Vereinfachung und eine bessere Verwaltbarkeit gelegt werden, da diese mit ein Schlüssel zum Erfolg sein werden.

Unternehmen wetteifern miteinander auf Grundlage der Informationen, die sie aus ihren Daten gewinnen. Daher müssen sie mit den neuesten Speicherlösungen ausgestattet sein und über neue Rechenzentrums-Technologien und -Architekturen verfügen. Die Standards für Effizienz, Leistung und Skalierbarkeit unterliegen somit einer stetig voranschreitenden Entwicklung. Außerdem müssen Unternehmen einen noch größeren Mehrwert aus ihren Daten schöpfen, um im Wettbewerb erfolgreich zu sein.

Über den Autor:
Nigel Edwards ist Vice President, EMEA Sales und Channel Marketing bei HGST, ein Unternehmen von Western Digital.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im März 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Sichere Datenspeicherung

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close