Hadoop

/Hadoop

Big Data para leigos – Parte 2

Seguimos com a Parte 2 da série... se não viu a Parte 1, clique aqui. A Abordagem Hadoop Hadoop foi concebido para processar eficientemente grandes volumes de informação, ligando muitos computadores convencionais em conjunto para funcionar em paralelo. A máquina de 1000 CPUs teórica descrita anteriormente custaria uma quantidade muito grande de dinheiro, muito mais do que 1.000 máquinas com uma única CPU ou 250 máquinas com 4 CPUs. O Hadoop vai amarrar essas máquinas menores em um único cluster de computação de baixo custo. Comparação com Técnicas Existentes Processamento de grandes volumes de dados não é algo novo, tendo [...]

By |2018-08-29T10:16:59+00:00julho 27th, 2015|Big Data, Big Data Analytics, Hadoop, noticias-tecnologia|0 Comments

Big Data para leigos – parte 1

Há algum tempo atrás pedi a meu irmão pra me ajudar a traduzir um tutorial do Yahoo sobre Hadoop e outras ferramentas para Big Data, e este trabalho finalmente foi concluído. Hoje começo uma série que vai te fornecer informação relevante sobre os softwares comumente usados em projetos de análise de grandes volume de dados, com destaque para o Hadoop. Hadoop O Hadoop é uma infraestrutura de processamento em lote distribuído em larga escala. Mesmo podendo ser usado em uma única máquina, o seu verdadeiro poder reside na sua capacidade de se adaptar a centenas ou milhares de computadores, cada [...]

By |2018-08-29T10:16:59+00:00julho 21st, 2015|Big Data, Big Data Analytics, Hadoop, noticias-tecnologia|0 Comments