Fotolia

F

EMC antwortet: Wie sich das Internet of Things auf Storage auswirkt

Eine Frage, vier Antworten. Hier antwortet Daniel Pelke von EMC auf unsere Frage, was das Internet der Dinge und Storage miteinander zu tun haben.

TechTarget fragt und Industrieexperten antworten. In unserer vierteiligen Serie antwortet hier Daniel Pelke, Senior Manager Presales bei EMC Deutschland, auf die Frage, wie sich das Internet der Dinge und Storage bedingen.

Das Internet der Dinge wird von vielen Herstellern und Industrievertretern geradezu heraufbeschworen, mit allen Vor- und Nachteilen. Was aber bedeutet das für die Storage-Branche und die Speicherlandschaften in heutigen Rechenzentren? Wie beeinflusst das IoT wirklich unsere Storage-Anforderungen und wo müssen Anbieter wie Anwender (Unternehmen) umdenken und neue Wege beschreiten? Oder reicht es, lediglich „am Ball“ zu bleiben, Erweiterungen anzuschaffen und den Storage modern zu halten? Vielleicht ist es ja doch nur ein Hype, den man technisch aussitzen kann.

Daniel Pelke,
Senior Manager Presales,
EMC Deutschland

Daniel Pelke: Durch das Internet of Things wächst die zu speichernde Datenmenge in den nächsten fünf Jahren um das Fünffache auf die gigantische Zahl von 44 Zettabytes. Längst sind es nicht mehr Anwendungen alleine, die durch ihre Benutzung Daten liefern – Sensoren melden Bewegungsmuster, Temperaturen, Nutzungszeiten, Lokationen und vieles mehr von Mobiltelefonen, Autos, aber auch von vernetzten Werkzeugen in der Fertigung und sogar von sogenannten smarten Haushaltsgeräten. Es kommt aber nicht alleine auf die Datenmenge an, sondern auch darauf, wie schnell diese Daten analysiert werden können und wie schnell Anwendungen entwickelt und eingesetzt werden können.

Geschwindigkeit ist das A und O in dieser Welt. Agile Softwareentwicklung ist einer der Schlüssel, um bei dem Tempo in diesem Markt mithalten zu können. Aber wie sieht es mit dem Backend aus? Wie schnell kann die benötigte Infrastruktur aufgebaut werden, über die neue Apps bereitgestellt werden? Gibt es agile Infrastrukturen?

In einem typischen Datacenter

  • ist trotz wachsendem Bedarf an Object-und HDFS-Storage dieser noch unterrepräsentiert.
  • ist Storage lokal gebunden und nicht, obwohl erforderlich, weltweit verteilt.
  • wird Flash-Storage noch nicht als Grundlage für schnelle Analysen, zum Beispiel auf Basis von In-Memory-Datenbanken, eingesetzt.
  • ist Data Protection eine One-Size-Fits-All-Disziplin – obwohl die verschiedenen Datentypen unterschiedliche Data-Protection-Verfahren erfordern.

Das passt nicht wirklich zusammen mit dem Gedanken der schnellen Self-Service-Anforderung beliebiger Infrastrukturressourcen.

Software-defined Storage (SDS) als Teil eines Software-defined Data Center (SDDC) ist der vielversprechendste Lösungsansatz, um diese Anforderung zu erfüllen. SDS ist mehr als nur Storage-Virtualisierung – es ist die Abstraktion von Storage-Hardware und Storage-Funktionalität. Unabhängig von den eingesetzten Produkten wird über einen gemeinsamen Software-Layer der Storage-Typ bereitgestellt, zum Beispiel Object-Storage und HDFS, aber auch Block- und File-Storage. Das gilt auch für Verfügbarkeit, Data Protection, Backup und Security-Anforderungen. Dabei spielt es keine Rolle, ob der Storage lokal, remote oder in der Cloud verfügbar ist.

Bleibt die Frage, wie man ein Data Center auf diese Anforderungen hin transformieren soll. Womit fängt man an? Wie lange dauert es? Was ist mit den klassischen IT-Infrastrukturen?

Einen Ausweg bietet das sogenannte bi-modale IT-Modell, in dem sowohl die klassischen IT-Prozesse, -Verfahren und -Infrastrukturen der ersten und zweiten Plattform als auch die neue, agile IT der dritten Plattform parallel in einem Unternehmen betrieben werden. Neue Anwendungen können sofort auf dem SDDC-Stack aufgebaut werden, und bestehende Anwendungen können Schritt für Schritt migriert werden. Trotzdem wird die klassische IT-Infrastruktur auch weiter geben, genauso wie der längst tot gesagte Mainframe immer noch verlässlich seine Aufgaben erfüllt.

Über den Autor: 
Daniel Pelke ist Senior Manager Presales bei der EMC Deutschland. Er arbeitet seit mehr als 15 Jahren für Unternehmen der EMC Federation. Zehn Jahre davon fokussierte er sich auf die ECM-Plattform Documentum und zwei Jahre auf Backup & Restore. Vor seiner Zeit bei EMC war Pelke bei Hewlett Packard in Böblingen beschäftigt, davor bei der Rücker AG und ESG mbH in München. In allen Unternehmen war er für die Automobilindustrie zuständig, was seine heutige Affinität mit dieser Branche erklärt.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im August 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close