VMware ist die beste Plattform – nicht nur für herkömmliche Anwendungen, sondern auch für Big Data. Durch die Virtualisierung von Big Data-Anwendungen wird das Management Ihrer Big Data-Infrastruktur einfacher und kostengünstiger und Sie erzielen schnellere Ergebnisse.

      

(9:44)

VMware und Cloudera: Eine gemeinsame Lösung für die Virtualisierung von Hadoop

So unterstützt VMware Big Data

Hadoop-Virtualisierung: Ein Mythos wird entzaubert

Fakten über die Virtualisierung von Hadoop auf vSphere

Jetzt lesen

Technische Fallstudie: Adobe Systems

Adobe stellt Hadoop as a Service auf VMware vSphere bereit

Weitere Informationen

Was ist Big Data?


Das Wachstum des Big Data-Volumens ist beeindruckend und fast täglich und überall zu erkennen. Systeme und Geräte wie Computer, Smartphones, Appliances und Anlagen erzeugen riesige Mengen an Datensätzen und arbeiten mit riesigen Mengen vorhandener Daten.
 

Aber was ist Big Data? Big Data ist ein weiter Begriff, der sowohl strukturierte als auch unstrukturierte Datensätze umfasst, die so groß und komplex sind, dass herkömmliche Anwendungen und Systeme für die Datenverarbeitung diese nicht adäquat verarbeiten können. Mit Big Data werden häufig prädiktive Analysen durchgeführt. Anhand der Analysen von Datensätzen werden neue Zusammenhänge erkannt, mit denen Businesstrends ermittelt, Krankheiten verhindert, Kriminalität bekämpft und viele weitere Erkenntnisse erlangt werden können.  
 

Der Branchenanalyst Doug Laney definierte Big Data anhand von drei Kernbegriffen:

  • Volumen: Terabyte, Datensätze, Transaktionen, Tabellen und Dateien
  • Geschwindigkeit: Stapelverarbeitung, Neartime, Echtzeit und Ströme
  • Vielfalt: Strukturiert, unstrukturiert und halb strukturiert

Apache Hadoop (auch „Hadoop“ genannt) ist eine Open Source-Software, mit der Big Data verteilt gespeichert und verarbeitet wird. Hadoop wurde von Unternehmen wie Cloudera, Hortonworks, MAPR und Pivotal in große Distributionen (auch „Distros“ genannt) verpackt und integriert, in denen die Big Data-Workloads ausgeführt werden.

Roadblocks auf dem Weg zu erfolgreichen Big Data-Projekten

 

Bei der Implementierung von Big Data-Projekten stoßen Unternehmen häufig auf Roadblocks. Beispiele dafür sind knappe Budgets, fehlendes IT-Know-how und das Risiko der Bindung an eine bestimmte Plattform.

Knappe Budgets

Eine Deloitte-Studie hat ergeben, dass knappe Budgets und hohe Kosten die wichtigsten Gründe dafür sind, dass Unternehmen sich vor der Bereitstellung von Big Data scheuen. Es ist schwer, die Investition in eine neue IT-Infrastruktur für die Verarbeitung von großen Mengen an Daten zu rechtfertigen, vor allem, wenn für das Unternehmen kein konkreter Business Case vorliegt.

 

IT-Know-how

Die Verarbeitung von Big Data-Workloads unterscheidet sich von der Verarbeitung herkömmlicher Workloads in Unternehmensanwendungen. Big Data-Workloads werden parallel und nicht nacheinander verarbeitet. In der Regel priorisiert die IT geschäftskritische Workloads und plant Jobs mit niedrigerer Priorität für Stapelverarbeitung in der Nacht oder in Zeiten mit Überkapazität. Für die Big Data-Analysen müssen viele Anwendungsbereiche in Echtzeit durchgeführt werden, damit Live-Analysen und eine sofortige Reaktion möglich sind. Damit ist die IT gezwungen, die Richtlinien für Rechenzentren zu ändern und neue Tools zu erlernen, mit denen diese neuen Workloads erstellt, verwaltet und überwacht werden.

 

Bindung an eine Plattform

Unternehmen müssen sich für die richtige Infrastruktur entscheiden, in der ihre Anwendungen und Daten verarbeitet werden. Die Bereitstellung von Hardware ist sehr zeitaufwendig. Der Schritt in die Cloud ist eine gute Lösung für das Proof-of-Concept. Doch er birgt auch das Risiko der Bindung an eine Plattform, ruft Bedenken hinsichtlich der Sicherheit hervor und erzeugt in großen Umgebungen enorme Kosten. Zudem müssen Unternehmen sich für eine Hadoop-Distribution entscheiden: Cloudera, Hortonworks, MAPR und Pivotal bieten alle konkurrierende (und inkompatible) Architekturen an. Bei zahlreichen Entscheidungen – sind sie einmal getroffen – wird es für ein Unternehmen schwer, sie später wieder rückgängig zu machen. Daher schieben viele Unternehmen die Diskussion um Big Data einfach auf die lange Bank.

Big Data und VMware

 

Die Rolle einer physischen oder virtuellen Infrastruktur besteht darin, Anwendungen zu unterstützen. Dies beinhaltet herkömmliche, geschäftskritische Anwendungen ebenso wie moderne Cloud-, mobile oder Big Data-Anwendungen. 
 

Die Virtualisierung von Big Data-Anwendungen wie Hadoop bietet viele Vorteile, mit denen eine physische Infrastruktur oder die Cloud nicht mithalten können. Durch das vereinfachte Management Ihrer Big Data-Infrastruktur erzielen Sie schnellere Ergebnisse und senken die Kosten. VMware ist nicht nur für herkömmliche Anwendungen, sondern auch für Big Data die beste Plattform.
 

Vorteile von Big Data mit VMware

Unkompliziert

Vereinfachen Sie die Abläufe und die Wartung Ihrer Big Data-Infrastruktur.

Kostengünstig

Senken Sie die CapEx-Kosten durch Cluster-Konsolidierung. Senken Sie die OpEx durch Automatisierung und einfache Abläufe.

Agil

Sie erhalten eine bedarfsorientierte Infrastruktur, damit Sie schnell einen geschäftlichen Mehrwert erzielen.

Flexibel

Testen Sie die großen Big Data-Technologien frühzeitig und oft. Dank Mandantenfähigkeit können Sie mehrere Hadoop-Distributionen auf derselben virtuellen Maschine ausführen.

Effizient

Erstellen Sie einen Pool aus Ihren Ressourcen und steigern Sie die Serverauslastung. Die Automatisierung der Workload-Mobilität macht Prozesse effizienter.

Sicher

Stellen Sie die Kontrolle und Compliance Ihrer sensiblen Daten sicher.