Studie: Storage-Budgets sinken, während das Datenwachstum explodiert

Die Studie von 451 Research zeigt wichtige Trends bei Storage auf und zeigt, welche Probleme die Anwender haben und welche Lösungen es dafür gibt.

Eine neue Studie von 451 Research belegt, dass die Storage-Budgets immer geringer werden, während der Bedarf an Speicherkapazitäten permanent anwächst. 

Zu den weiteren Ergebnissen der Umfrage gehören: Der Einsatz von Flash-Storage ist weit verbreitet, aber All-Flash-Arrays sind eher selten. 

Die Marktforscher haben ferner ein signifikantes Interesse an Private- und Public-Cloud-Lösungen festgestellt, allerdings noch nicht bei einer Mehrheit der Unternehmen. Die meisten von ihnen zeigen sich nicht von dem Ansatz des Software-defined Data Center überzeugt.

Dies sind die wichtigsten Ergebnisse der letzten Interviews mit Storage- und IT-Fachleuten, die 451 Research TheInfoPro in mehr als 250 mittleren und großen Unternehmen weltweit durchgeführt hat.

Hier die 10 Top-Ergebnisse der Studie:

1. Die Storage-Budgets sinken weiter

Die durchschnittlichen Ausgaben für Speicher haben im zweiten aufeinander folgenden Jahr abgenommen. 

Die Budgets der großen Unternehmen sind durchschnittlich um 22 Prozent auf 14,5 Millionen Dollar gesunken, während sich in der mittleren Unternehmensgruppe eine Verminderung um durchschnittlich 19 Prozent auf 1,3 Millionen Dollar abgezeichnet hat.

Storage-Budgets sinken weiter

Während der gleichen Periode ist der Bedarf an Speicherkapazitäten weiter angewachsen, wobei Storage einen zunehmend größeren Anteil am gesamten IT-Budget ausmacht: Der Anteil liegt nun im Durchschnitt bei 13,5 Prozent gegenüber 9,5 Prozent in 2013. Das bedeutet, dass die Speicherausgaben nicht in dem gleichen Ausmaß fallen wie die IT-Gesamtkosten. Allerdings ändert dies nichts an der Tatsache, dass nun eine neue Phase begonnen hat, in der auch für die Speicherausgaben weniger Geld zur Verfügung steht.

2. Das Datenwachstum ist das Problem Nummer eins

Den Unternehmen macht heute am meisten das ungebremste Datenwachstum zu schaffen. Ein IT-Administrator muss sich heute um 285 Terabyte an Primary-Storage-Kapazität kümmern, während es 2013 erst 260 Terabyte und 2012 nur 215 Terabyte waren. Im gleichen Zeitraum sind aber nicht zusätzliche Stellen für diesen IT-Bereich geschaffen worden.

Deshalb ist nicht überraschend, dass Speicherspezialisten die meiste Zeit damit verbringen, die Technologie am Laufen zu halten und die verfügbaren Storage-Volumina zu erweitern. Im Durchschnitt müssen die Unternehmen heute den größten Teil ihres Speicherbudgets für die Aufrechterhaltung des laufenden Betriebs verwenden, während für neue Produkte kaum Geld übrig bleibt. Hinzu kommt, dass die Migration von Daten zwischen verschiedenen Systemen zu bewältigen ist, wenn eine Überholung oder ein Upgrade einzelner Arrays ansteht.

Die größte Herausforderung ist dem Datenwachstum Herr zu werden

Technologien, um die bestehende Infrastruktur zu optimieren, haben deshalb Hochkonjunktur: Dazu zählen u. a. Thin Provisioning, Datendeduplizierung und Kompression. In dem Maße, wie die Datenmengen ansteigen, bleibt es fraglich, ob diese Technologien ausreichen, um genügend Barrieren gegen diese Flut aufzubauen, oder ob man nicht stattdessen auf neue Alternativen wie Software-defined Storage setzen sollte. Solche neuen Ansätze versprechen, nicht nur die Management-Last zu verringern, sondern auch die Speicherkosten zu senken.

3. Backup und Disaster Recovery haben nach wie vor hohe Priorität

Backup und Disaster Recovery (DR) nehmen bei den größeren Speicherprojekten einen vorderen Platz ein. Obwohl sich bei diesen Technologien seit einiger Zeit nicht viel Neues getan hat, zeigt ihr Stellenwert für die Unternehmen doch die Auswirkungen, die Cloud und Virtualisierung gerade für die Datensicherung und für Business Continuity haben.

Die Antworten bei der Umfrage von 451 Research zeigen, dass die Mitarbeiter mehr Zeit für die Administration von Backup als für den eigentlichen Speicherbetrieb aufbringen müssen.

Data Protection ist nach wie vor ein kritischer Faktor im Unternehmen

Der Einsatz von Datendeduplizierungs-Technologien bleibt weiterhin wichtig, während gleichzeitig dedizierte Backup-Appliances mehr Verwendung finden. Außerdem kommt dem Begriff „Copy Data Management“ im Vokabular der Speicherspezialisten eine größere Bedeutung zu – ein weiterer Indikator für die Priorität von Backup und DR.

Kaum zu glauben, aber 20 Prozent der Befragten geben an, dass ihr Unternehmen nicht über einen Disaster-Recovery-Plan verfügt. Dies wiegt umso schwerer, da immerhin 40 Prozent in den letzten zwölf Monaten einen nicht geplanten Speicherausfall zu verbuchen hatten.

4. Storage-Performance gewinnt an Bedeutung

Storage-Performance wird zunehmend als besondere Herausforderung erwähnt: Der Anteil der Befragten, die auf Performance-Probleme verweisen, hat gegenüber 2013 um 21 Prozent zugenommen.

Dies scheint besonders Umgebungen für Server- und Desktop-Virtualisierung zu betreffen. IT-Abteilungen beachten dabei genau das Verhältnis von Performance zu den notwendigen Ausgaben, wie die Befragten berichten. Performance um der Performance willen kommt schon aus Kostengründen nicht in Frage.

Performance-Anfragen treiben den Trend des Flash-Speichers

Zum ersten Mal erscheinen in der Studie auch Flash-Installationen. Um die Leistungsfähigkeit der Systeme zu erhöhen, werden vermehrt Flash-Speicher in unterschiedlichen Ausprägungen eingesetzt, vor allem als ein Tier in hybriden Arrays. An vorderster Stelle stehen bei den Anwendungen Datenbanken, virtuelle Desktop-Infrastrukturen (VDI) und Analytics, wenn es um den Einsatz von Flash geht.

5. 2014 ist das Jahr der All-Flash-Arrays

TheInfoPro hat schon vor einiger Zeit geschrieben, dass Flash alles bei Enterprise-Storage ändern wird. Die jüngsten Studienergebnisse können als Beleg dafür herangezogen werden, dass Flash nun tatsächlich in den Unternehmen angekommen ist.

Diese Entwicklung beruht auch darauf, dass „Flash“ nicht nur als eine Schicht in tier-basierten Arrays eingesetzt wird, sondern vor allem in seinem neuen Lösungscharakter als All-Flash-Angebot mit herausragender Performance. 

All-Flash-Arrays haben inzwischen einen oberen Rangplatz in dem „Heat Index“ von TheInfoPro erklommen – sie sind gleich um 16 Plätze nach oben geklettert. Doch erst acht Prozent der befragten Unternehmen setzen bereits All-Flash-Arrays in der Praxis ein. Und 22 Prozent beabsichtigen eine entsprechende Implementierung in den nächsten 18 Monaten – eine deutliche Steigerung gegenüber der Befragung vor einem Jahr.

All-Flash-Lösungen steigen in der Beliebtheit und werden künftig häufiger eingesetzt

Unter den besonders interessanten Anbietern erreichte der Flash-Produzent „Pure Storage“ Platz zwei, womit zum ersten Mal ein Start-up einen so prominenten Rang einnimmt. Insgesamt besetzen Flash-Technologien jetzt drei der vier Spitzenplätze in dem aktuellen Heat Index.

6. Private Cloud Storage nur für Minderheit interessant

Cloud-Storage wird in der Umfrage vor allem als Private (on-premise) Cloud genannt. Auch dieses Jahr erreicht diese Technologie Platz zwei des Heat Index. Jedoch wird nach wie vor Wert auf selbst entwickelte Lösungen gelegt, was verdeutlicht, dass Hersteller kaum komplette Lösungen für Cloud-Storage anbieten. IT-Abteilungen, so die Studie, sehen allerdings Produkte für Storage-Virtualisierung als eine wichtige Komponente für ihre eigene Infrastruktur.

Private Cloud ist zwar interessant, aber noch nicht weit verbreitet

Große Unternehmen sind die ersten Anwender bei Cloud Storage, da sie über die Inhouse-Kompetenz verfügen, um solche Systeme zu konfigurieren und zu betreiben. Unterdessen bieten Hersteller Object Storage für Cloud-Umgebungen an. Sie bestätigen damit die These von TheInfoPro, dass Object Storage eine breitere Verwendung in den Unternehmen finden wird.

7. Public Cloud steht noch am Anfang

Public Cloud Storage ist für viele Unternehmen noch eine eher unbekannte Größe. Hier gibt es noch viel zu entdecken, und für die IT-Hersteller und Service Provider können sich in der Zukunft noch große Marktchancen eröffnen. 

Gegenwärtig unterscheiden sich große und mittlere Unternehmen noch in ihrer Bereitschaft, sich auf die neue Technologie einzulassen.

Public Cloud wird eher von SMBs angenommen

Mittlere, aber auch kleine Unternehmen, die jeweils nur über kleinere IT-Teams verfügen, scheinen eher bereit zu sein, externen Cloud-Storage einzusetzen, besonders für File Sharing und zu Synchronisierungszwecken.

8. Interesse an Converged Infrastructure abgeflaut?

Die Systeme für Converged Infrastructure bleiben ein dominantes Thema in der Server- und Netzwerkwelt, während das Interesse im Storage-Umfeld sichtbar nachgelassen hat.

Dies ist jedoch nicht damit gleichzusetzen, dass es überhaupt kein Interesse an dieser Technologie gibt: Etwa 19 Prozent der Unternehmen haben bereits Converged-Infrastructure-Projekte eingeführt, und nur ein Drittel der Befragten gibt an, dass Convergence nicht zu den strategischen Zielen ihres Unternehmens gehört.

Konvergenz im Storage-Bereich ist nicht mehr so gefragt

25 Prozent der Befragten sagen dagegen, dass es organisatorische Hindernisse für die Einführung von Converged Systems gegeben hat. Diese Prozentangabe ist geringer als in den Vorjahren, liegt aber immer noch vor der Aussage, dass es wegen der Kosten zu keiner Investition gekommen ist.

Die Befragten weisen ferner darauf hin, dass ein schrittweiser Übergang zu Converged Infrastructure von motivierten CIOs und CFOs oder auch von Partnern angeleitet werden muss.

Cisco und VCE werden in diesem Segment am meisten implementiert. Da sich immer mehr Konvergenz-Produkte etablieren, vor allem mit dem neuen Trend des „Hyper-converged“, kommen auch hier weitere Angebote auf den Markt, zum Beispiel VMwares VSAN.

9. Große Skepsis gegenüber Software-defined Data Center

„Software-defined“ gehört zum neuen IT-Wortschatz von 2014. Aber dieser Ansatz muss sich erst noch zu einer Strategie mit einem klaren Ziel herauskristallisieren – bisher ist er weitgehend inhaltsleer. Nur 17 Prozent der von 451-Research-Befragten geben an, dass sie bereits strategische Planungen aufgenommen haben, um ihre IT-Infrastruktur in ein Software-defined Data Center zu transformieren.

Die Mehrheit hat noch keinen Plan in dieser Richtung, aber die Situation beginnt sich bereits zu ändern. Während der Durchführung der Studie wurden Speicherspezialisten gefragt, wie sie „Software-defined Storage (SDS)“ definieren würden. Im ersten Quartal 2014 waren die Antworten von großer Skepsis geprägt, und viele der interviewten Personen bezeichneten SDS als „Marketing-Hype“.

Aber im zweiten Quartal tauchten mehr reale Definitionen bei den Befragten auf. Die drei gängigsten Definitionen von SDS lauteten: „Storage-Virtualisierung“ (Abstraktion vom Speicherort der Daten); „Storage, der von einem virtuellen Server-Layer aus verwaltet wird“; „Hardware-Abstraktion“ (Abstraktion von den Anforderungen der darunter liegenden Hardware).

Das Software-defined-Konzept muss Anwender erst noch überzeugen

Es ist laut 451 Research interessant, dass sich nur eine der drei Definitionen auf Speicher-Management bezieht, wobei das Management in einem höheren Stack-Level angesiedelt wird. In der Tat übernehmen zunehmend Hypervisoren und Management-Tools auf dem Hypervisor-Level Aufgaben wie das Verschieben von Daten und Entscheidungen über den jeweiligen Speicherort. Storage und Data Management bewegen sich zunehmend in Richtung eines Modells, in dem virtuelle Maschinen im Mittelpunkt stehen.

10. Backup: Tape wird langsam, aber sicher von Festplatten verdrängt

Prognosen über den Tod von Tape sind fast so alt wie die IT-Industrie selbst. Wahr geworden sind sie bisher nicht. Inzwischen stellt sich aber die Frage, ob nicht eine Kombination von disk-basiertem Backup und Archivierung sowie von Object Storage und einem Cloud-basierten Geschäftsmodell doch in der Lage ist, die alten Vorhersagen einzulösen.

Wahrscheinlich werden Festplatten doch nicht Tapes ersetzen. Aber man wird sich vermutlich weniger auf Tape als Medium für Backup-Zwecke verlassen. Ein Resultat der Studie von 451 Research ist, dass heute durchschnittlich 40 Prozent der Backup-Daten auf Bändern gespeichert werden. Gegenüber den Aussagen der Befragten im Jahr 2013 ist das ein deutlicher Rückgang: Damals waren es noch 54 Prozent. Zum ersten Mal während der Befragungen sank die Tape-Quote für Backup auf unter 50 Prozent.

Band-Speicherlösungen werden von Disk-Systemen in den reinen Archiv-Bereich gedrängt

Haltbarkeit und Kosten der Bandspeicherung werden laut 451 Research dafür sorgen, dass diese Technologie noch lange für langfristig angelegte Datenlagerung eingesetzt wird. Aber mit dem Aufkommen von vergleichsweise günstigeren Plattenspeichern als bisher wird die Rolle von Tape allmählich weiter an den Rand gedrängt werden. So sieht zumindest die Prognose der Marktforscher von 451 Research aus.

Folgen Sie SearchStorage.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Oktober 2014 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close