masterzphotofo - Fotolia

Big Data Analyse und Internet der Dinge (IoT) machen Storage klüger

Big Data Analyse und das Internet der Dinge (IoT) können helfen, die Storage-Infrastruktur intelligenter zu machen. Das birgt aber Gefahren für Administratoren.

Kleinere und dichtere Prozessoren reichern jede Schicht des Storage-Infrastruktur-Stacks mit mehr Intelligenz an. Ein Beispiel dafür sind die Storage-Systeme selbst. Die im Überfluss vorhandene Rechenleistung lässt sich für agile, Software-definierte Storage verwenden (zum Beispiel Hewlett Packard Enterprise StoreVirtual), sie ermöglicht hyperkonvergente Architekturen (zum Beispiel HyperGrid, Nutanix, Pivot3, SimpliVity) oder sie hilft, die Ein-/Ausgabe zu optimieren, indem die Storage-Funktionen zwischen Anwendungsservern und Disk-Hosts verteilt werden (zum Beispiel Darium).

Allerdings hat all die integrierte Intelligenz auch einen Nachteil. Sie verschleiert möglicherweise die ansonsten deutlich bemerkbaren Veränderungen an Storage-Infrastrukturen. Alle IT-Veränderungen sind schwerer zu verfolgen, egal, ob wegen geplanter Patches oder Upgrades, wegen stärkerer Nutzung oder wachsender Nutzerzahl oder wegen komplexen Fehlern und dem Ausfall von Komponenten. Mit anderen Worten: Native, dynamische Optimierung durch rechenstarke und preisgünstige Prozessoren macht es immer schwieriger für uns Menschen, genau herauszufinden, was mit unseren Infrastrukturen los ist.

So ist es zwar wirklich wunderbar, nicht mehr jedes Detail kennen zu müssen und sich darauf verlassen zu können, dass die Komponenten am unteren Ende des Stacks genau das Richtige tun bis hin zum absolut autonom funktionierenden Rechenzentrum. Aber das heutige Public Cloud Computing macht interne Experten nicht überflüssig. Und die können integrierte Intelligenz durchaus zweischneidig finden. Ein Grund dafür: Eine intelligentere Storage-Infrastruktur hilft beim Provisionieren, bei der Optimierung, bei der Definition von Erweiterungsplänen und bei der Fehlersuche. Wer aber eigene Vorstellungen hat, wie die Infrastruktur arbeiten oder gestaltet sein sollte, kann erleben, dass intelligente Storage-Infrastrukturen für solche Anstrengungen blind sind oder sie sogar aktiv behindern.

Trotz dieser potentiellen Nachteile würden die meisten IT-Spezialisten lieber in einer intelligenteren und autonomeren IT-Welt leben. Auch wenn es ein Risiko gibt, dass die integrierte künstliche Intelligenz macht, was sie will. Das hat einige gewichtige Gründe.

Die Daten stehen im Mittelpunkt

Viele können sich noch an die Zeit erinnern, als Analysen offline erfolgten. Man sammelte einige Daten in einer Datei, öffnete Excel, SAS oder ein anderes Desktop-Tool und nach Wochen bekam man dann eine Analyse oder Handlungsempfehlung. Für heutige Verhältnisse dauern solche Analysen einfach zu lange.

Geschwindigkeit und Agilität der heutigen Anwendungen und Nutzer nehmen immer weiter zu. Dazu kommen gewaltig angeschwollene Datenströme und minutenschnelles elastisches Cloud-Brokering. In dieser Welt werden Antworten und Einsichten schneller denn je gebraucht. Die dafür nötige Intelligenz braucht als Basis eine Fülle verlässlicher Daten, wie sie heutige Infrastrukturen jeden Tag mehr und mehr produzieren. Tatsächlich werden wir dank des Internets der Dinge (IoT) bald in Daten ertrinken. Zudem braucht man Methoden, diese Fülle an Informationen zu verarbeiten und zu verwalten.

Storage-Arrays beispielsweise produzieren schon lange erkenntnisträchtige Daten. Man braucht aber für diese Geräte aus historischen Gründen herstellerspezifische, komplexe und teure Software für das Storage Ressource Management. Glücklicherweise gibt es heute eine Reihe von Entwicklungen, durch die sich IT-Systeme intelligenter verwalten lassen und die von den Infrastrukturen erzeugte Daten besser und schneller einsetzen.

Wie das oben erwähnte Wachstum des Datenvolumens durch IoT, erzeugen auch Storage-Komponenten wachsende Mengen detaillierter Metriken auf Maschinenebene. Diese wachsende Datenflut macht Big-Data-Analyse innerhalb der IT selbst erforderlich. Als Administrator tut man deshalb gut daran, Python und Spark zu erlernen.

Moderne Storage-Plattformen liefern oder produzieren einfach ansprechbare Schnittstellen wie REST-APIs (Representational State Transfer Application Programming Interface). Damit kann jeder mit den entsprechenden Zugriffsrechten auf wichtige Daten direkt zugreifen, ohne dafür irgendwelche analytischen Werkzeuge von Drittherstellern zu nutzen. Standard-APIs erlauben auch das Management von Drittsystemen, indem Plattformen wie OpenDataSource integriert werden.

Die meisten Hersteller integrieren heute eine Call-Home-Funktion in ihre Arrays, die darüber detaillierte Maschinenlogs an den Hersteller zurücksenden. Dort werden diese Daten fortlaufend verarbeitet und analysiert. Der Hersteller kann die Daten mit Big-Data-Werkzeugen aggregieren und so proaktiven Support anbieten oder Erkenntnisse aus den Daten der gesamten Kundenbasis gewinnen. Das verbessert Marketing und Produkt-Management. Eine Call-Home-Funktion wird Herstellern auch als Service angeboten, etwa von Glassbeam. Das kann beim Aufbau eines Kundenportals mit Mehrwert helfen, wo Kunden direkt Informationen über die Nutzung und Leistung ihrer Systeme erhalten.

Mit Big-Data-Anwendungen, die auf die IT zugeschnitten sind, kommen ausgezeichnete Visualisierungstools (zum Beispiel Tableau), wie sie normalerweise in entsprechenden internen Unternehmensabteilungen, etwa für Marktforschung oder Controlling, verwendet werden. Damit kann die IT selbst Dashboards und Berichte entwickeln, die geschäftlich orientierte Nutzer ansprechen und die sie verstehen. Viele Hersteller haben inzwischen schon mit sofort verfügbaren, visuell attraktiven Open-Source-Visualisierungsbibliotheken (wie d3.js) gearbeitet, um ohne großen Aufwand an den jeweiligen Zweck angepasste Produkt-Dashboards und breit einsetzbare Widgets zu entwickeln.

Einige Hersteller gehen bei intelligenten Funktionen weit über die Visualisierung hinaus. Es reicht ihnen nicht, die detaillierten Daten den Kunden einfach vorzuwerfen, wenn sie den Anwendern stattdessen auch wichtige produktspezifische Leistungsindikatoren (Key Performance Indicators, KPI) liefern könnten (zum Beispiel VMware vRealize Operations, Tintri, Pernix/Nutanix), die bloße Befunde in handlungsleitende Erkenntnisse verwandeln.

„Wenn Autos bald selbst fahren, sollte man nicht überrascht sein, wenn Storage-Arrays uns demnächst mitteilen, wir mögen unsere Finger von ihnen und sie selbst die nötigen Dinge erledigen lassen.“

Mike Matchett, Taneja Group

Als ersten großen Schritt können Hersteller heute Datenströme aus den tiefen Systemebenen in Expertenmodelle zur Modellierung der Systemgesundheit, der Kapazitätsentwicklung oder des Risikos einspeisen. Manche Modelle liefern lineare Prognosen auf Basis der aus einmaligen Scores jeder spezifischen Plattform ermittelten Trends. Die am weitesten entwickelten Modelle berücksichtigen auch die vermutete zukünftige Entwicklung der Rechenlast und Erweiterungen der Storage-Infrastruktur und treffen nichtlineare Leistungsprognosen auf Basis der Analyse des Verhaltens der Warteschlangen.

Kluge Maschinen

Fortschritte bei der Big-Data-Analyse und andere IoT-Trends schaffen mit Sicherheit Raum für spannende Neuentwicklungen. Das führt zu einer noch intelligenteren Storage-Infrastruktur.

So steht das angewandte maschinelle Lernen im Bereich des System-Managements noch ganz am Anfang. Schon sind bald analytische Softwareservices aus der Cloud denkbar, die das Maschinenlernen noch intelligenter machen. Sie werden in die Bedienungskonsolen der Kunden integriert sein und den dynamischen Betrieb, in Dashboards und Portalen die intelligente strategische Planung ermöglichen. Ja, sie werden sogar in die Endgeräte wandern, damit diese zunehmend autonom werden.

Wenn Autos bald selbst fahren, sollte man nicht überrascht sein, wenn Storage-Arrays uns demnächst mitteilen, wir mögen unsere Finger von ihnen und sie selbst die nötigen Dinge erledigen lassen. Wer weiß, vielleicht müssen irgendwann neue Storage-Arrays einen Unternehmens- und IT-bezogenen IQ-Test absolvieren, damit Anwender feststellen können, ob sie für das Produktions-Rechenzentrum geeignet sind.

Über den Autor:
Mike Matchett ist Senior Analyst und Consultant bei dem Marktforschungsunternehmen Taneja Group.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Nächste Schritte

Nimble Storage: Selbstlernende Maschinen können Ausfallzeiten verhindern.

Sechs Gründe: Darum sollte IoT-Storage objektbasiert sein.

Alle wichtigen Technologien und Einsatzszenarien im Big Data Essential Guide.

Wie SDN und SDS künftige Cloud-Architekturen gestalten.

Artikel wurde zuletzt im November 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Public Cloud

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close