Agilität durch Performance

Die Virtualisierung von Hadoop mit vSphere ermöglicht eine neue Stufe der Agilität und unterstützt somit die Bereitstellung, Ausführung und das Management von Hadoop-Clustern. Die System-Performance bleibt dabei mit physischen Bereitstellungen vergleichbar. Über den vSphere Web Client können Unternehmen Ressourcen so bereitstellen, dass die Anpassung an geänderte Geschäftsanforderungen mit nur einem Mausklick möglich ist.

Elastische Skalierung

Durch die Trennung von Daten und Computing können Sie Hadoop-Cluster elastisch skalieren und Daten sicher und persistent halten. Indem Rechenleistung und Daten auf getrennte virtuelle Maschinen aufgeteilt werden, haben Administratoren die Möglichkeit, zustandslose Rechenknoten in Betrieb bzw. außer Betrieb zu nehmen, um auf kurzfristige Änderungen der Geschäftsanforderungen zu reagieren. Dabei bleiben alle Daten persistent. Durch die intelligente Skalierung können Unternehmen die Ressourcenauslastung steigern und flexibel auf sich schnell ändernde Workloads reagieren.

Zuverlässigkeit und Sicherheit

Für Hadoop-Workloads kann eine bewährte unternehmensweite HA-Lösung von vSphere genutzt werden. Dabei bleiben die Daten dank Isolierung auf VM-Ebene sicher und geschützt. Durch die Virtualisierung von Hadoop-Clustern mit vSphere können Unternehmen Ressourcen, Versionen und Sicherheitsfunktionen isolieren und erhalten damit vollständige Kontrolle über ihre Daten. Dies vereinfacht die Lösung von Ressourcenkonflikten und den Schutz von Anwenderdaten.

Möglichkeiten für gemischte Workloads

Für Hadoop-Cluster wird keine dedizierte Hardware mehr benötigt. Durch die Virtualisierung von Hadoop mit vSphere können Unternehmen nicht ausgelastete Hardwareressourcen gezielt einsetzen und unterschiedliche Workload-Typen gemeinsam mit Hadoop auf einem einzelnen physischen Host ausführen. Dadurch werden Ressourcen freigesetzt und die Systemauslastung verbessert, was wiederum in maximaler Hardware-Effizienz resultiert.

Technische Details

Gemischte Workloads / Hadoop as a Service

Die Aufteilung von Computing und Daten auf verschiedene virtuelle Maschinen ermöglicht echte Mandantenfähigkeit und gemischte Workloads und bereitet den Weg für ein internes Hadoop as a Service-Modell.

VM-basierte Isolation

Die Erstellung mehrerer virtueller Maschinen auf einem physischen Host ermöglicht die Isolation von Ressourcen, Versionen und Sicherheitsfunktionen. Dadurch erhalten Enterprises beim Management ihrer gesamten Daten mehr Möglichkeiten für Kontrolle und Agilität.

vSphere HA / FT für Hadoop

vSphere ermöglicht eine umfangreiche Unterstützung von HA und FT mehrerer Komponenten im Hadoop-System, wie etwa der Knoten NameNode und JobTracker.

Automatisierung des Lebenszyklus

Über die automatische Ressourcenoptimierung mit BDE lassen sich Computing- und Storage-Ressourcen so zuweisen, dass sie im Betrieb an unterschiedliche Workload-Anforderungen angepasst werden können.

Hadoop-Optimierung auf virtueller Plattform

Mit Hadoop Virtual Extensions (HVE) werden Hadoop-Systeme topologiespezifisch bereitgestellt. HVE, das Teil von Apache Hadoop 1.2.0 ist, behält den Speicherort von Daten in Hadoop-Clustern bei und gewährleistet damit eine Leistung, die nativen Bereitstellungen gleichkommt.