Cosa sono i Big Data?

Il termine generico Big Data indica set di dati complessi, strutturati e non, di grandi dimensioni che le applicazioni e i sistemi di elaborazione dati tradizionali non sono in grado di gestire in modo adeguato. I Big Data sono spesso alla base dell'analisi predittiva. L'analisi dei set di dati consente di individuare nuove correlazioni per identificare i trend aziendali, prevenire malattie, combattere il crimine e molto altro ancora.
Una ricerca di settore globale mostra quattro tendenze chiave dell'hybrid cloud

Potenziamento dei Big Data

VMware e Cloudera: lavorare insieme per virtualizzare Hadoop.

I miti da sfatare sulla virtualizzazione di Hadoop

Esamina i dati concreti relativi alla virtualizzazione di Hadoop su vSphere.

Ostacoli alla realizzazione dei progetti Big Data

Durante l'implementazione di progetti Big Data, le aziende spesso si trovano di fronte a ostacoli quali budget limitati, mancanza di competenze IT e rischio di dipendenza dalla piattaforma.

Budget limitati

Secondo uno studio condotto da Deloitte, budget limitati e costi sono i motivi principali per cui molte aziende non implementano progetti Big Data. Giustificare gli investimenti in una nuova infrastruttura IT per elaborare grandi quantità di dati può essere davvero difficile, soprattutto se l'azienda non ha ancora un business case immediato.

Competenze IT

L'elaborazione dei carichi di lavoro Big Data è diversa da quella dei tradizionali carichi di lavoro delle applicazioni aziendali. I carichi di lavoro Big Data vengono elaborati in parallelo, invece che in sequenza. L'IT solitamente assegna la priorità ai carichi di lavoro business critical e pianifica l'esecuzione in batch dei lavori con priorità inferiore durante la notte o quando c'è capacità in eccesso. L'analisi dei Big Data richiede l'esecuzione in tempo reale di molti casi d'uso per ottenere analisi e risposte immediate. Questo costringe l'IT a modificare le policy dei data center e ad apprendere nuovi strumenti per creare, gestire e monitorare questi nuovi carichi di lavoro.

Dipendenza dalla piattaforma

Le aziende devono scegliere il tipo di infrastruttura giusto per eseguire le applicazioni e i dati esistenti. L'acquisto di hardware richiede tempo. Il passaggio al cloud può rivelarsi un'ottima soluzione per un prototipo, ma comporta il rischio di dipendenza dalla piattaforma, problemi di sicurezza e costi estremamente elevati per un utilizzo su larga scala. Le aziende devono anche decidere quale distribuzione Hadoop scegliere: Cloudera, Hortonworks, MAPR e Pivotal offrono tutte architetture concorrenti (e incompatibili). In campo ci sono tante decisioni che, una volta prese, rendono difficili eventuali ripensamenti futuri. Per questo tantissime aziende rimandano il discorso sui Big Data.

Vantaggi dei Big Data VMware

Semplicità

Semplifica le operation e la gestione dell'infrastruttura per i Big Data.

Agilità

Ottieni un'infrastruttura on demand per realizzare rapidamente valore aziendale.

Convenienza

Riduci le spese di capitale attraverso il consolidamento dei cluster e l'OpEx tramite l'automazione e semplici workflow.

Flessibilità

Prova a utilizzare tempestivamente e di frequente le tecnologie Big Data più importanti. Il supporto multi-tenancy consente di eseguire più distribuzioni Hadoop sulla stessa macchina virtuale.

Efficienza

Raggruppa le risorse in pool e incrementa l'utilizzo del server. L'automazione della mobility dei carichi di lavoro aumenta i livelli di efficienza dei processi.

Sicurezza

Assicura controllo e compliance dei dati sensibili.

Hadoop in primo piano

Il ruolo dell'infrastruttura, fisica o virtuale, è quello di supportare le applicazioni, sia quelle business critical tradizionali sia quelle moderne come cloud, mobile e Big Data. Doug Laney, analista di settore, ha fornito una definizione dei Big Data attraverso tre V:

  • Volume: terabyte, record, transazioni, tabelle e file
  • Velocità: batch, quasi in tempo reale, in tempo reale e in streaming
  • Varietà: dati strutturati, non strutturati e semistrutturati

Apache Hadoop (noto anche come Hadoop) è un software Open Source usato per lo storage distribuito e l'elaborazione dei Big Data. Hadoop è stato pacchettizzato e integrato in grandi distribuzioni da aziende come Cloudera, Hortonworks, MAPR e Pivotal per eseguire carichi di lavoro Big Data. La virtualizzazione delle applicazioni Big Data come Hadoop offre moltissimi vantaggi che non è possibile ottenere con l'infrastruttura fisica o nel cloud. Semplificando la gestione dell'infrastruttura per i Big Data i risultati vengono raggiunti più rapidamente, il che rende la soluzione più conveniente. VMware è la migliore piattaforma non solo per le applicazioni tradizionali, ma anche per i Big Data.

Vuoi iniziare subito?