Essential Guide

Big Data: Anwendung, Datenschutz und Technologie

Eine umfassende Auswahl von Artikeln, Videos und mehr, die von unseren Redakteuren gewählt wurden.

HDS präsentiert hyperkonvergente Big-Data-Lösung mit Pentaho-Technologie

HDS bringt eine hyperkonvergente Lösung auf den Markt, die dank der Open-Source-Software von Pentaho Big-Data-Umgebungen bedient.

Hitachi Data Systems übernahm im Februar 2015 das Unternehmen Pentaho, das Open-Source-Software für Business Intelligence anbot. Diese Software ist nach eigenen Angaben so leistungsfähig, dass sie auch Big Data aus Stream-Processing-Engines für Echtzeitanalysen verarbeiten kann. Ausgestattet mit dieser Software-Plattform ist nun die neue hyperkonvergente Appliance von HDS: die Hyper-Scale-Out-Plattform (HSP).

Die Software-defined HSP-400-Serie kombiniert Rechen-, Speicher und Virtualisierungskapazitäten in einer Infrastruktur. Die schlüsselfertige Lösung soll mit der nativen Integration mit Pentaho für stabile Datenintegration und -analyse, einfache Einrichtung, Betrieb und Skalierung bei Big-Data-Projekten sorgen.

Die HSP Scale-Out-Architektur soll eine vereinfachte, skalierbare und auf Unternehmensanforderungen zugeschnittene Infrastruktur für Big Data gewährleisten. Damit können unterschiedliche Big-Data- und Analytics-Workloads konsolidiert werden. Die Architektur umfasst eine zentrale Benutzeroberfläche, um die Einrichtung und Verwaltung virtualisierter Umgebungen für führende Open-Source-Frameworks für Big Data, darunter Apache Hadoop, Apache Spark und kommerzielle Open-Source-Stacks wie die Hortonworks Data Platform (HDP), zu automatisieren.

Eine Node ist zwei Höheneinheiten groß und enthält redundante Stromversorgung, zwei Intel-Prozessoren vom Typ Xeon E5-2620 (2GHz) sowie 192 GByte batteriegeschützten NVRAM-Memory. Das Modul fasst zwölf SAS-Festplatten (3,5-Zoll) mit sechs TByte, allerdings ist auch eine All-Flash-Konfiguration möglich. Zwei 2,5-Zoll-HDDs mit je 300 GByte Speicherkapazität stehen für das Betriebssystem zur Verfügung. Das Netzwerk-Backend hat 40GbE-Dual-Port-NICs, im Frontend stecken 10-GbE-Dual-Ports.

Um Unternehmen zu gewährleisten, selbst große Datenbestände zentral zu speichern und zu verarbeiten, ist die HSP 400 mit zahlreichen Funktionen ausgestattet. Dazu gehört unter anderem In-Place-Datenzugriff, bei dem die Daten für Analysezwecke – sei es Hadoop oder andere Analyseanwendungen – lokal vorliegen. Hierbei nutzt das System ein POSIX-kompatibles File-System. Darüber hinaus soll die Integration des Virtualisierungs-Managements flexible Analysen ermöglichen. Des Weiteren stehen Features für Ausfallsicherheit (no SPF, Hochverfügbarkeit), Wiederherstellung (automatische Datenkopien) oder für Datenverteilung zur besseren Systemauslastung integriert. Bei letzterem werden große Datenbestände über Nodes verteilt. Nicht zuletzt ist die Lösung Cloud-ready und OpenStack-kompatibel

Der Anwender bezahlt mittels Pay-As-You-Grow nur die Ressourcen, die er wirklich benötigt. Die HSP-Plattform wird als vollständig konfigurierte und schlüsselfertige Anwendung geliefert. Die Einrichtung und Unterstützung produktiver Workloads nimmt laut Hersteller wenige Stunden anstatt Monate in Anspruch. Darüber hinaus soll der Aufbau einer flexiblen Datensammlung (Elastic Data Lake) erleichtert werden, damit Kunden auf einfache Weise verteilte Datensätze integrieren und anspruchsvolle analytische Workloads starten können.

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close