O que é Big Data?

Big Data é um termo amplo usado para definir conjuntos de dados estruturados e não estruturados tão grandes e complexos a ponto de os aplicativos e os sistemas tradicionais de processamento de dados não conseguirem manipulá-los adequadamente. A tecnologia Big Data geralmente viabiliza as técnicas de análise preditivas. As técnicas de análise de conjuntos de dados são usadas para encontrar novas correlações que identificam tendências de negócios, previnem doenças, combatem o crime e muito mais.
Pesquisa da Global Industry revela quatro tendências importantes de nuvem híbrida

Viabilização do Big Data

VMware e Cloudera: trabalhando em conjunto para virtualizar o Hadoop.

Desmistificação da virtualização Hadoop

Conheça os fatos sobre a virtualização do Hadoop no vSphere.

Obstáculos para o sucesso de projetos de Big Data

As empresas geralmente encontram obstáculos ao implementar projetos de Big Data. Esses obstáculos podem incluir restrições orçamentárias, falta de experiência da equipe de TI e risco de bloqueio de plataforma.

Restrições orçamentárias

As restrições orçamentárias e os custos são as principais razões de muitas empresas evitarem a implantação de Big Data, de acordo com um estudo realizado pela Deloitte. Pode ser difícil justificar o investimento em uma nova infraestrutura de TI para processar grandes quantidades de dados, principalmente se a empresa ainda não tem um caso de negócios imediato.

Experiência em TI

O processamento das cargas de trabalho de Big Data é diferente do processamento das cargas de trabalho típicas de aplicativos corporativos. As cargas de trabalho de Big Data são processadas paralelamente, e não sequencialmente. Em geral, a TI prioriza as cargas de trabalho essenciais aos negócios e programa a execução de trabalhos com prioridade mais baixa em lotes à noite ou quando há excesso de capacidade. Com as técnicas de análise de Big Data, muitos casos de uso devem ser executados em tempo real para que a análise e a reação também ocorram em tempo real. Isso força a equipe de TI a mudar as políticas do data center e conhecer novas ferramentas para criar, gerenciar e monitorar essas novas cargas de trabalho.

Dependência de plataforma

As empresas precisam escolher o tipo ideal de infraestrutura para executar seus aplicativos e dados. A aquisição de hardware leva tempo. Migrar para a nuvem pode ser ótimo para fins de validação técnica, mas traz consigo o risco da dependência de plataforma, preocupações com a segurança e um enorme custo em escala. As empresas também precisam decidir qual distribuição do Hadoop adotarão, com a Cloudera, a Hortonworks, a MAPR e a Pivotal oferecendo todas as arquiteturas concorrentes (e incompatíveis). Há muitas decisões que, após tomadas, são difíceis de mudar. Por esse motivo, muitas empresas simplesmente adiam a discussão sobre o Big Data.

Benefícios do VMware Big Data

Simples

Simplifique as operações e a manutenção de sua infraestrutura de Big Data.

Ágil

Obtenha sua infraestrutura sob demanda para que possa agregar rapidamente valor aos negócios.

Econômico

Reduza os custos de CapEx por meio da consolidação de cluster. Reduza os custos de OpEx por meio da automação e de fluxos de trabalho simples.

Flexível

Avalie as grandes tecnologias de Big Data o quanto antes e com frequência. A multilocação permite executar várias distribuições do Hadoop na mesma máquina virtual.

Eficiente

Agrupe os recursos e aumente a utilização do servidor. A automação da mobilidade de carga de trabalho contribui para a eficiência do processo.

Proteção

Assegure o controle e a conformidade de seus dados confidenciais.

Hadoop em destaque

A função da infraestrutura, seja física ou virtual, é oferecer suporte a aplicativos. Isso inclui os tradicionais aplicativos essenciais aos negócios, bem como os modernos aplicativos móveis, em nuvem e de Big Data. O analista do setor, Doug Laney, definiu o Big Data em três Vs:

  • Volume: terabytes, registros, transações, tabelas e arquivos
  • Velocidade: lote, quase em tempo real, tempo real e fluxos
  • Variedade: estruturados, não estruturados e semiestruturados

O Apache Hadoop (também conhecido como Hadoop) é um software de código aberto usado para armazenamento distribuído e processamento de Big Data. O Hadoop foi empacotado e integrado em grandes distribuições por empresas como Cloudera, Hortonworks, MAPR e Pivotal para executar cargas de trabalho de Big Data. A virtualização de aplicativos de Big Data, como o Hadoop, oferece muitos benefícios que não podem ser obtidos na infraestrutura física ou na nuvem. A simplificação do gerenciamento da infraestrutura de Big Data acelera a obtenção dos resultados, justificando melhor os custos. A VMware é a melhor plataforma para Big Data e para aplicativos tradicionais.

Pronto para começar?