Hadoop

Início/Hadoop

Top 20+ Ferramentas de Big Data para se tornar Cientista de Dados (mesmo sem saber programar)

A esta altura, você já deve saber que Big Data é o volume de dados além da capacidade tecnológica para armazenar, gerenciar e processar de modo eficiente, demandando soluções novas, mudanças de paradigma, abordagens e métodos para o desenvolvimento e implementação de tecnologias para análise de dados. Atualmente as empresas têm acesso a muita informação, mas não conseguem extrair valor dos dados brutos, muitas vezes por estarem semi ou não estruturados, pois não há soluções adequadas para lidar com este tipo de dado. Muitas empresas sequer sabem se vale a pena manter, ou mesmo não possuem condições de manter os [...]

[Infográfico] Cientista de Dados – o caminho mais curto para a carreira do século XXI!

No infográfico a seguir você encontra respostas para as questões mais importantes sobre a carreira em cientista de dados! O que é Big Data? Big Data vs Ciencia de Dados O que é um cientista de dados? Quais são os conhecimentos necessários para um cientista de dados? Qual é o salário médio de um cientista de dados? O que é o Hadoop? Que grandes empresas adotaram o Big Data? Onde estudar para se tornar um cientista de dados? Quais certificações são mais reconhecidas pelo mercado para o Data Scientist? Ferramentas como o Vengage permitem criar vários tipos de (info)gráficos.

Big Data para leigos – Parte 2

Seguimos com a Parte 2 da série... se não viu a Parte 1, clique aqui. A Abordagem Hadoop Hadoop foi concebido para processar eficientemente grandes volumes de informação, ligando muitos computadores convencionais em conjunto para funcionar em paralelo. A máquina de 1000 CPUs teórica descrita anteriormente custaria uma quantidade muito grande de dinheiro, muito mais do que 1.000 máquinas com uma única CPU ou 250 máquinas com 4 CPUs. O Hadoop vai amarrar essas máquinas menores em um único cluster de computação de baixo custo. Comparação com Técnicas Existentes Processamento de grandes volumes de dados não é algo novo, tendo [...]

Big Data para leigos – parte 1

Há algum tempo atrás pedi a meu irmão pra me ajudar a traduzir um tutorial do Yahoo sobre Hadoop e outras ferramentas para Big Data, e este trabalho finalmente foi concluído. Hoje começo uma série que vai te fornecer informação relevante sobre os softwares comumente usados em projetos de análise de grandes volume de dados, com destaque para o Hadoop. Hadoop O Hadoop é uma infraestrutura de processamento em lote distribuído em larga escala. Mesmo podendo ser usado em uma única máquina, o seu verdadeiro poder reside na sua capacidade de se adaptar a centenas ou milhares de computadores, cada [...]