cutimage - Fotolia

Das Spectrum-Portfolio von IBM: Weitreichende Integration und mehr Leistung

IBM hat seine Spectrum-Produktfamilie erweitert. Neu sind hoch-performantes Analytics und die einheitliche Verknüpfung bislang getrennter Module.

IBM baut seine Spectrum Softwaremarke weiter aus. So wurde die Spectrum-Computing-Produktfamilie für das Ressourcen- und Workload-Management hinzugefügt. Das erlaubt hoch performantes Analytics bei datengetriebenen Anwendungen.

Spectrum Computing ergänzt das Spectrum-Softwareportfolio, welches im Februar 2015 vorgestellt wurde. Zur neuen Produktfamilie gehört auch Spectrum Conductor und die speziellen Datei- und Objekt-Funktionen von Spectrum Scale. Spectrum Scale basiert auf dem IBM General Parallel File System.

Laut Nick Werstiuk, Direktor für die Software-defined Infrastrukturstrategie bei IBM, lassen sich mit dem Spectrum Conductor Scale-out-Cluster mit x86- oder Power-Servern unter Linux einrichten. Die Applikation unterstützt Cloud-Anwendungen und Open-Source-Frameworks wie Hadoop. Ziel ist es, die Ressourcen verteilt zu nutzen, Analytics zu beschleunigen sowie Daten und Storage in einer Multi-Tenant-Umgebung zu managen und zu schützen.

Die Spectrum Computing Plattform umfasst:

  • IBM Spectrum Conductor with Spark: Hierbei handelt es sich um eine spezielle Version des Conductors, die auf die Nutzung des Big Data Analytics Frameworks Apache Spark zugeschnitten ist.
  • IBM Spectrum LSF: Dahinter verbirgt sich eine verbesserte Version von IBM Platform LSF, mit der sich Simulationen, Design sowie Forschung und Entwicklung beschleunigen lassen. Die Software ist speziell auf High-Performance-Computing (HPC) ausgelegt und stammt aus der Akquisition von Platform Computing im Jahr 2012.
  • IBM Spectrum Symphony: Die Anwendung was früher unter dem Namen IBM Platform Symphony bekannt. Sie bietet Infrastructure as a Service (IaaS) mit Workload- und Ressourcen-Management sowie schnelleren Analytics. Spectrum Symphony ist eine reine Umbenennung. Es wurde nichts an der bestehenden Technologie geändert. Auch diese Software entstammt der Akquisition von Platform Computing.

„Wir sehen einen Bedarf für verteilte Scale-out-Infrastrukturen und Software. Mit Spectrum Storage ließ sich bereits ein Software-defined Storage-Portfolio wirksam managen. Das wurde jetzt um Spectrum Computing erweitert“, sagt Werstiuk über die neuen Möglichkeiten. Er erklärt außerdem, dass die Grenzen zwischen Storage-, Workload- und Compute-Management verblassen, da die Anwender Scale-out und verteilte Umgebungen aufbauen.

„Die Unternehmen benötigen heute eine Multi-Scale-Plattform mit der sie Compute und Storage zwar unabhängig, aber trotzdem simultan managen können“, so Werstiuk weiter. Dabei bedeutet „Multi“, dass man die Freiheit hat, wahlweise mehr Speicherkapazität oder mehr Rechenleistung hinzuzufügen. „Unsere Software kann solche Anforderungen problemlos managen“, sagt er über den Leistungsumfang des neuen Angebotes. Hierzu verweist Werstiuk auf den Spectrum Conductor, bei dem Storage und Compute effizient zusammenwirken. Das System richtet sich an Unternehmen, die allgemeine Analytics sowie Service- oder Container-basierte Umgebungen für native Cloud-Anwendungen einsetzen.

„Wir nehmen die lokalen Festplatten in den Ressource-Pool auf und machen daraus eine sinnvolle Storage-Umgebung. Das gleiche geschieht mit der lokalen Rechenleistung, die wir ebenfalls in einen einheitlichen Ressourcen-Pool einbinden. Beides zusammen erlaubt eine Teilung und Zuweisung auf die jeweiligen Anwendungen, womit sich das Deployment von Applikationen managen lässt“, erläutert Werstiuk die Anwendungsunterstützung.

Mehr zum Thema Big Data Storage:

Die Auswirkungen von Big-Data-Analytics auf Storage-Systeme.

Big Data in der Cloud speichern.

SanDisk: Flash-Speicher wie InfiniFlash macht Big-Data-Management effizient.

Essential Guide zu Big Data: Anwendung, Datenschutz und Technologie.

Die Folgen von Big Data: Wie man aus Backup- und Archivdaten neuen Nutzen zieht.

Forrester-Analyst Mike Gualtieri unterstreicht die Bedeutung der Integration von Apache Spark mit der IBM-Plattform. „Spark ist ein sehr beliebter Compute-Cluster, also eine gute Stapelverarbeitungssoftware. Doch Spark hat kein eigenes Filesystem, deshalb verwenden viele User hierfür Hadoop Distributed File System (HDFS), doch das hat viele Beschränkungen, die es bei IBM nicht gibt. Deshalb ist IBM Spectrum Storage Scale eine sehr gute Alternative“, lautet seine Analyse des IBM-Angebots.

Hinzu kommt laut Gualtieri noch der Vorteil, dass sich mit IBM Spectrum Conductor die gesamte Rechenleistung besser managen lässt. „Häufig wissen die Anwender gar nicht, wieviel Rechen-Knoten für eine Aufgabe erforderlich sind, doch mit dem Spectrum Conductor lässt sich die Rechenleistung völlig elastisch aufdrehen oder herunterfahren“, fügt er hinzu.

IBM Spectrum Conductor unterstützt Big Data Analytics

Ashish Nadkarni, Program Director bei IDC, lobt ebenfalls IBM Spectrum Conductor: „Das System kann Hadoop-basierte Silos aufbrechen, denn es erlaubt eine Hadoop-unabhängige Kombination und Analyse von Daten auf einer verteilten und hoch-skalierbaren Infrastruktur.“ Das sei besonders wichtig, weil Daten in Zukunft nicht mehr in Silos gespeichert und analysiert werden können.

„Bei neuen Anwendungen gilt der Grundsatz ‚Analytics first‘. Dafür aber ist eine Daten-Management-Plattform erforderlich, die nicht nur das Abarbeiten der Analytics ermöglicht, sondern darüber hinaus auch die Analytics-Komponenten enthält. Diese Plattform muss verteilt, skalierbar, einheitlich und Cloud-enabled sein, und sie muss sowohl strukturierte wie unstrukturierte Datensätze unterstützen“, sagt er über die Zukunft des Daten-Managements.

Auch für Steve Conway, Research Vice President für High Performance Computing bei IDC, macht die Integration von LSF, Conductor und Symphony in das IBM Spectrum Storage Portfolio Sinn. „Sie gehören alle zusammen, und wenn man an die gegenwärtige Explosion der Datenmengen denkt, spielt Storage sicherlich eine wichtige Rolle. Für den Anwender ist die Integration von IBM Spectrum Platform in etwas Gleichförmiges besonders vorteilhaft, denn wenn man das selber macht, können erhebliche Probleme entstehen“, lautet seine Warnung an die IT-Verantwortlichen.

Die Preise für den Spectrum Conductor basieren auf der Rechenleistung und der Speichermenge. Sie beginnen bei 3.825 Dollar pro Socket und 625 Dollar pro Terabyte.

IBM arbeitet gegenwärtig an einer Referenzkonfiguration für den Spectrum Conductor, bei der Spark auf Power-basierten Servern im Mittelpunkt steht. Nach Auskunft eines IBM-Sprechers arbeitet das Unternehmen derzeit auch zusammen mit anderen Anbietern an entsprechenden Referenzarchitekturen.

Laut Marc The’berge, Director Rack Solutions bei Super Micro Computer, entwickelt das Unternehmen derzeit eine Appliance, bei der der Spectrum Conductor auf den Super-Micro-Servern zum Einsatz kommt. In dieser leistungsoptimierten Analytics-Appliance werden Compute, Storage und Networking integriert sein. Außerdem arbeitet das Unternehmen an einer hyper-konvergenten Appliance mit IBM Spectrum Accelerate Block Storage. Dieses System basiert auf der XIV-Technologie, die Teil der IBM Spectrum Storage-Produktfamilie ist.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Artikel wurde zuletzt im Juli 2016 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Datenmanagement-Tools

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close