VMware ist die beste Plattform – nicht nur für herkömmliche Anwendungen, sondern auch für Big Data. Durch die Virtualisierung von Big Data-Anwendung wird das Management Ihrer Big Data-Infrastruktur einfacher und kostengünstiger und Sie erzielen schnellere Ergebnisse.

      

(9:45)

VMware und Cloudera: Eine Zusammenarbeit für die Virtualisierung von Hadoop

Sehen Sie, wie VMware Big Data unterstützt

Hadoop-Virtualisierung: Ein Mythos wird entzaubert

Fakten über die Virtualisierung von Hadoop auf vSphere

Jetzt lesen

Technische Fallstudie: Adobe Systems

Adobe stellt Hadoop as a Service auf VMware vSphere bereit

Weitere Informationen

Was ist Big Data?


Das Wachstum des Big Data-Volumens ist beeindruckend und fast täglich und überall zu erkennen. Systeme und Geräte wie Computer, Smartphones, Appliances und Anlagen erzeugen riesige Mengen an Datensätzen und arbeiten mit riesigen Mengen vorhandener Daten.
 

Aber was ist Big Data? Big Data ist ein weiter Begriff, der sowohl strukturierte als auch unstrukturierte Datensätze umfasst, die so groß und komplex sind, dass herkömmliche Anwendungen und Systeme für die Datenverarbeitung diese nicht adäquat verarbeiten können. Mit Big Data werden häufig prädiktive Analysen durchgeführt. Anhand der Analysen von Datensätzen werden neue Zusammenhänge erkannt, mit denen Businesstrends ermittelt, Krankheiten verhindert, Kriminalität bekämpft und viele weitere Erkenntnisse erlangt werden können. 
 

Der Branchenanalyst Doug Laney definierte Big Data anhand von drei Kernbegriffen:

  • Volumen: Terabyte, Datensätze, Transaktionen, Tabellen und Dateien
  • Geschwindigkeit: Stapelverarbeitung, Neartime, Echtzeit und Ströme
  • Vielfalt: Strukturiert, unstrukturiert und halb strukturiert

Apache Hadoop (auch „Hadoop“ genannt) ist eine Open Source-Software, mit der Big Data verteilt gespeichert und verarbeitet werden. Hadoop wurde von Unternehmen wie Cloudera, Hortonworks, MAPR und Pivotal in große Distributionen (auch „Distros“ genannt) verpackt und integriert, in denen die Big Data-Workloads ausgeführt werden.

Roadblocks auf dem Weg zu erfolgreichen Big Data-Projekten

 

Bei der Implementierung von Big Data-Projekten stoßen Unternehmen häufig auf Roadblocks. Beispiele dafür sind knappe Budgets, der Mangel an IT-Know-how und das Risiko der Bindung an eine Plattform.

Knappe Budgets

Eine Deloitte-Studie hat ergeben, dass knappe Budgets und hohe Kosten die wichtigsten Gründe dafür sind, dass Unternehmen sich vor der Bereitstellung von Big Data scheuen. Es ist schwer, die Investition in eine neue IT-Infrastruktur für die Verarbeitung von großen Mengen an Daten zu rechtfertigen, vor allem, wenn dem Unternehmen kein konkreter Business Case vorliegt.

 

IT-Know-how

Die Verarbeitung von Big Data-Workloads unterscheidet sich von der Verarbeitung herkömmlicher Workloads in Enterprise-Anwendungen. Big Data-Workloads werden parallel und nicht nacheinander verarbeitet. In der Regel priorisiert die IT geschäftskritische Workloads und plant Jobs mit niedrigerer Priorität für Stapelläufe in der Nacht oder für Zeiten einer Überkapazität. Für die Big Data-Analysen müssen viele Anwendungsbereiche in Echtzeit durchgeführt werden, damit Live-Analysen und sofortige Reaktion möglich sind. Damit ist die IT gezwungen, die Richtlinien für Rechenzentren zu ändern und neue Tools kennenzulernen, mit denen diese neuen Workloads erstellt, verwaltet und überwacht werden.

 

Bindung an eine Plattform

Unternehmen müssen sich für die richtige Infrastruktur entscheiden, in der ihre Anwendungen und Daten verarbeitet werden. Die Bereitstellung von Hardware ist sehr zeitaufwändig. Der Schritt in die Cloud ist eine gute Lösung für das Proof-of-Concept. Doch er birgt auch das Risiko der Bindung an eine Plattform, ruft Bedenken hinsichtlich der Sicherheit hervor und erzeugt in großen Umgebungen enorme Kosten. Zudem müssen Unternehmen sich für eine Hadoop-Distribution entscheiden: Cloudera, Hortonworks, MAPR und Pivotal bieten alle konkurrierende (und inkompatible) Architekturen an. Bei zahlreichen Entscheidungen – sind sie einmal getroffen – wird es für ein Unternehmen schwer, sie später wieder rückgängig zu machen. Daher schieben viele Unternehmen die Diskussion um Big Data einfach auf die lange Bank.

Die Rolle von VMware für Big Data

 

Die Rolle einer Infrastruktur – sei sie physisch oder virtuell – besteht darin, Anwendungen zu unterstützen. Dies umfasst herkömmliche, geschäftskritische Anwendungen ebenso wie moderne Cloud-, Mobile oder Big Data-Anwendungen. 
 

Die Virtualisierung von Big Data-Anwendungen wie Hadoop bietet viele Vorteile, mit denen eine physische Infrastruktur oder die Cloud nicht mithalten können. Durch das vereinfachte Management Ihrer Big Data-Infrastruktur erzielen Sie schnellere Ergebnisse und senken Kosten. VMware ist nicht nur für herkömmliche Anwendungen, sondern auch für Big Data die beste Plattform.
 

Vorteile von VMware Big Data

Einfach

Vereinfachen Sie die Abläufe und die Wartung Ihrer Big Data-Infrastruktur.

Kostengünstig

Senken Sie die CapEx-Kosten durch eine Cluster-Konsolidierung. Senken Sie die OpEx durch Automatisierung und einfache Abläufe.

Agil

Sie erhalten eine bedarfsorientierte Infrastruktur, damit Sie schnell einen geschäftlichen Mehrwert erzielen.

Flexibel

Testen Sie die großen Big Data-Technologien frühzeitig und oft. Dank der Mandantenfähigkeit können Sie mehrere Hadoop-Distributionen auf einer virtuellen Maschine ausführen.

Effizient

Erstellen Sie einen Pool Ihrer Ressourcen und verbessern Sie die Serverauslastung. Die Automatisierung der Workload-Mobilität sorgt für effizientere Prozesse.

Sicher

Stellen Sie die Kontrolle und Compliance Ihrer sensiblen Daten sicher.

vSphere Big Data Extensions


VMware vSphere Big Data Extensions (BDE) vereinfacht die Ausführung von Big Data-Workloads auf der vSphere-Plattform und sorgt für optimale Effizienz und Agilität.

Jetzt herunterladen

Leistungen von VMware vSphere Big Data Extensions

Einfachere Abläufe mit Performance

Installieren Sie Hadoop-Cluster mit vCenter und sichern Sie sich eine Performance, die mit physischen Bereitstellungskonfigurationen vergleichbar ist.

Maximierung der Ressourcenauslastung auf neuer oder vorhandener Hardware

Mit einer Lösung, die elastische Skalierbarkeit und echte Mandantenfähigkeit bietet, sorgen Sie für mehr Effizienz Ihrer Ressourcen.

Entwicklung einer skalierbaren und flexiblen Big Data-Plattform für das Unternehmen

Erstellen Sie eine flexible Plattform, die problemlos skalierbar ist und das Unternehme für langfristiges Wachstum mit Big Data vorbereitet.