Qu’il s’agisse d’applications Big Data ou d’applications traditionnelles, VMware représente la plate-forme idéale. La virtualisation des applications Big Data simplifie la gestion de votre infrastructure Big Data, vous fait obtenir rapidement des résultats et vous permet de faire des économies.

      

(9:44)

Collaboration entre VMware et Cloudera pour virtualiser Hadoop

Découvrez comment VMware libère la puissance du Big Data

Démystifier les idées reçues sur la virtualisation de Hadoop

Faits sur la virtualisation de Hadoop sur vSphere

Lire

Étude de cas technique : Adobe Systems

Adobe déploie Hadoop sous forme de service sur VMware vSphere

En savoir plus

Présentation du Big Data


Généré chaque seconde qui passe par des sources multiples, le Big Data présente une croissance en volume phénoménale. Les systèmes et les terminaux, notamment les ordinateurs, les smartphones, les appliances et les équipements, génèrent et mettent à profit des jeux de données colossaux.
 

Mais qu’est-ce que le Big Data ? Big Data est un terme général désignant des jeux de données structurés et non structurés si importants et si complexes qu’il est impossible pour les applications et systèmes de traitement des données traditionnels de les gérer de façon adéquate. Le Big Data sert souvent de base aux analyses prédictives. L’analyse des jeux de données est utilisée pour identifier de nouvelles corrélations permettant notamment de repérer les tendances, de prévenir des maladies, de combattre la délinquance, et bien plus encore. 
 

L’analyste industriel Doug Laney définit le Big Data par le concept des « Trois V » :

  • Volume : téra-octets, enregistrements, transactions, tables et fichiers
  • Vélocité : traitement par lots, temps proche du temps réel, temps réel et flux
  • Variété : données structurées, non structurées et semi-structurées

Apache Hadoop (dit Hadoop) est un logiciel open source utilisé pour le stockage distribué et le traitement du Big Data. Hadoop a été intégré au sein de distributions importantes par des sociétés telles que Cloudera, Hortonworks, MAPR et Pivotal pour traiter les charges de travail de Big Data.

Obstacles à la réussite des projets Big Data

 

Les sociétés se heurtent souvent à des obstacles lorsqu’elles mettent en œuvre des projets Big Data. Il peut notamment s’agir de contraintes budgétaires, d’un manque de connaissances informatiques ou du risque de dépendance vis-à-vis d’une seule plate-forme.

Contraintes budgétaires

Selon une étude menée par Deloitte, les contraintes budgétaires et le coût sont les principales raisons pour lesquelles de nombreuses sociétés hésitent à déployer le Big Data. En effet, il peut s’avérer difficile de justifier un investissement dans une nouvelle infrastructure informatique destinée à traiter d’importants volumes de données, en particulier si l’entreprise ne dispose pas encore d’un dossier commercial immédiat.

 

Savoir-faire informatique

Le traitement des charges de travail Big Data diffère de celui des charges applicatives d’entreprise typiques. Effectivement, les charges Big Data sont traitée en parallèle, et non plus séquentiellement. Les départements informatiques mettent généralement en priorité les charges de travail stratégiques et planifient par lots les travaux de moindre priorité, souvent la nuit ou lorsqu’ils disposent d’un excédent de capacité. Avec les analyses Big Data, de nombreux cas d’usage doivent s’effectuer en temps réel pour bénéficier d’analyses et de réactions immédiates. Ceci oblige le département informatique à modifier les règles du Data Center et à maîtriser de nouveaux outils pour créer, gérer et surveiller ces nouvelles charges de travail.

 

Dépendance vis-à-vis d’une plate-forme

Les sociétés se doivent de choisir le type approprié d’infrastructure pour exécuter leurs applications et leurs données. La mise en place du matériel prend du temps. Le recours au Cloud est peut-être excellent en matière de validation technique, mais fait courir le risque de la dépendance vis-à-vis d’une plate-forme, s’accompagne de problèmes de sécurité et engendre des coûts phénoménaux à grande échelle. Les sociétés doivent également faire leur choix parmi les distributions de Hadoop ; en effet, Cloudera, Hortonworks, MAPR et Pivotal proposent tous des architectures concurrentes (et incompatibles). De nombreuses décisions, une fois prises, peuvent empêcher une société de changer d’optique par la suite. C’est pour toutes ces raisons que de nombreuses entreprises retardent tout simplement leur adoption du Big Data.

Le rôle de VMware dans le Big Data

 

Qu’elle soit physique ou virtuelle, l’infrastructure a pour rôle de prendre en charge des applications. Il peut s’agir d’applications stratégiques traditionnelles, aussi bien que d’applications récentes dans le Cloud, d’applications mobiles et de Big Data. 
 

La virtualisation d’applications Big Data telles que Hadoop offre de nombreux avantages qu’une infrastructure physique ou dans le Cloud ne permet pas d’obtenir. En simplifiant la gestion de votre infrastructure Big Data, vous obtenez plus rapidement des résultats et bénéficiez d’une meilleure rentabilité. Qu’il s’agisse d’applications Big Data ou d’applications traditionnelles, VMware représente la plate-forme idéale.
 

Le Big Data VMware est

Simple

Simplifiez l’exploitation et la maintenance de votre infrastructure Big Data.

Économique

Réduisez les dépenses d’investissement grâce à la consolidation des clusters. Réduisez les coûts d’exploitation grâce à l’automatisation et à des workflows simples.

Agile

Obtenez votre infrastructure à la demande, de façon à apporter rapidement une valeur ajoutée à l’entreprise.

Flexible

Essayez rapidement et fréquemment des technologies Big Data de premier plan. La mutualisation vous permet d’exécuter plusieurs distributions de Hadoop sur une même machine virtuelle.

Efficace

Regroupez vos ressources et augmentez l’utilisation du serveur. L’automatisation du déplacement des charges de travail rend les processus encore plus efficaces.

Sécurisée

Garantissez le contrôle et la conformité de vos données sensibles.