Hardware

Backup e Disaster Recovery, Storage: Integrando Tudo!

Você sabia que pode baixar GRATUITAMENTE algumas das melhores soluções de backup para VMware e HYPERV do mercado?

Algumas são GRATUITAS PRA SEMPRE!!!

Veeam Availability Suite

Veeam Backup & Replication

Veeam Availability Orchestrator

Veeam backup for Agents: Linux & Windows

Veeam Backup for Microsoft Office 365

Veeam Backup for Nutanix AHV

Veeam Backup for Azure

Descobri recentemente uma empresa chamada Nimble Storage, através do Storage Mojo (várias vezes citado aqui).

A empresa vende soluções integradas de armazenamento, backup e recuperação de desastres. E não, este não é um post pago, não tenho nenhuma ação da empresa e nem sei se a mesma tem representante no Brasil. Gostei mesmo foi da tecnologia deles, descrita num artigo bem interessante, que descrevo resumidamente a seguir. Sugiro dar uma checada no vídeo também.
O diferencial da solução é a tecnologia Cache Accelerated Sequential Layout (CASL), que comprime, armazena em cache (SSD) e em disco, além de fazer backups através de snapshots. Vamos entendê-la.

 

 

Compressão inline

O equipamento prevê a compressão dos dados em tempo real de forma a otimizar o processo de armazenamento e backup. Eles alegam taxas de 50% para sistemas de correio como Microsoft Exchange e 80% para bancos de dados como o Microsoft SQL Server.
 

Combinação de SSD e discos baratos para otimizar o acesso

Os dados mais acessados são mantidos em discos SSD para acesso rápido, enquanto dados menos acessados são armazenados em discos baratos, a princípio SATA. Achei a sacada muito inteligente, pois combina o que há de mais avançado em termos de desempenho sem abrir mão da capacidade de armazenamento. A análise dos dados a serem armazenados em SSD ou SATA é feita bloco a bloco.
Imagino que seja necessário um trabalho de planejamento muito bem feito para determinar a capacidade de armazenamento, especialmente em SSD, para evitar movimentações sucessivas de SSD para SATA e vice-versa, que poderiam minar o desempenho do sistema.
No caso de uma informação não estar no “cache SSD”, a empresa alega que o delay seria de poucos milissegundos para buscá-la.
 

Backup instantâneo

O recurso de snapshots já está disponível há tempos em diversas soluções de armazenamento, e é baseado nesta tecnologia que o sistema promete backups muito rápidos (em milissegundos) e consistentes (ao nível de aplicação!). Será ?
De toda forma, a idéia parece muito interessante, e o fato de utilizar discos de baixo custo viabiliza o armazenamento de uma quantidade maior de backups, permitindo atender a necessidade de backups mais frequentes para aplicações críticas, várias vezes ao dia, por exemplo.
Além disso, o fato de que os dados estão comprimidos otimiza a utilização de espaço pelos backups, que podem ser realizados em intervalos pré-determinados.
 

Recuperação de desastres

A solução suporta ainda mecanismos de replicação, novamente com compressão e incremental, de modo que apenas as mudanças em blocos são replicadas, reduzindo a necessidade de banda para replicação.
Além disso, segundo o fabricante, é possível (e simples) fazer o failover de clientes para o storage replicado, de forma que a recuperação de desastres ocorreria de forma mais eficiente.

 

 

Integração com Microsoft e VMware

Segundo o fabricante, a solução permite otimizar sua configuração a depender do uso que será feito (SQL Server, VMware, Hyper-V, etc), através da simples seleção da aplicação desejada numa lista de opções pré-definida.
 

Conclusão

Penso que vocês vão concordar comigo que a solução é bem interessante, por isso resolvi escrever sobre ela e compartilhar com vocês. Talvez estejamos vivendo uma mudança importante no mercado de armazenamento de dados, em especial para as pequenas e médias empresas, que nunca antes na história tiveram tanta tecnologia ao seu alcance.
Quer ter mais dicas essenciais pra administrar melhor seu backup? Clique AQUI.
SAIBA MAIS…
O erro #1 que sysadmins cometem ao fazer backup de seus servidores virtuais
Unitrends Free – 1 TB de backup gratuito pra suas máquinas virtuais VMware e Hyper-V
Veeam Endpoint Backup – ferramenta gratuita para backup de estações e servidores físicos e virtuais
4 ferramentas gratuitas para backup de VMware (inclusive ESXi gratuito) e Microsoft Hyper-V
Onde obter entre 100 GB e 10 TB gratuitamente na nuvem (atualizado!)
Alternativas de #backup para ambientes virtualizados
Backup múltiplo automágico com Dropbox, Skydrive e Google Drive
#Backup gratuito do seu ambiente virtual com o #Veeam Backup Free Edition
#FISL 13: Tape’s not dead
O problema da deduplicação
Veeam oferece soluções para ambiente VMWare ESX
FISL 9: Backup prático, porque precisamos evoluir!
Back In Time simplifica backup do Linux
Faça backup dos seus dados na nuvem
Sincronize suas pastas e computadores com simplicidade
Restore: backup multiplataforma com software livre
Backup online
Wuala une backup online e rede social
Veeam SureBackup faz verificação automática de backups no #VMware
Backup simplificado de GPOs

#Greenpeace mostra o quão suja é a energia usada por #Apple, #Facebook, #Google e outros

Clube do Hardware traz uma informação bem interessante sobre a energia usada nos datacenters mundo afora. Confiram!

Greenpeace cobra uso de energia limpa

Você já parou para pensar na quantidade de energia elétrica que é
necessária para alimentar os datacenters usados para armazenar e-mails,
fotos e vídeos de usuários do mundo todo? Para você ter uma ideia, alguns
datacenters usam a mesma energia necessária para abastecer 250 mil
residências.

O problema é que muitas empresas de tecnologia estão utilizando energia
suja, especialmente o carvão, para alimentar os seus datacenters. O carvão
ao ser queimado emite grandes volumes de gás carbônico, o principal gás
causador do efeito estufa. Portanto, quando um internauta sobe uma foto em
uma rede social, por exemplo, ele pode piorar inadvertidamente o
aquecimento global. É isso o que mostra o novo relatório do Greenpeace,
“How clean is your cloud?” (“Quão limpa é sua nuvem?”, em inglês), que
avalia 14 empresas de TI e o abastecimento de eletricidade de mais de 80
datacenters.

“Companhias altamente inovadoras e lucrativas estão construindo
datacenters que utilizam energia proveniente da queima de carvão, e agindo
como se seus clientes não soubessem disso ou não se importassem. Eles
estão errados”, entende Gary Cook, analista sênior de Políticas do
Greenpeace Internacional. “Muitas empresas de TI têm feito grandes
progressos em termos de eficiência energética, mas isso é apenas metade do
que deve ser feito. Elas precisam ter certeza de que a energia que
utilizam é proveniente de fontes limpas.”.

Veja abaixo a porcentagem de carvão usada pelas principais empresas de
tecnologia para alimentar seus datacenters.

– Apple: 55,1%
– HP: 49,7%
– IBM: 49,5%
– Oracle: 48,7%
– Facebook: 39,4%
– Microsoft 39,3%
– Twitter: 35,6%
– Amazon: 33,9%
– Rackspace: 31,6%
– Google: 28,7%
– Dell: 20,1%

Leia o relatório completo do Greenpeace em:
http://bit.ly/J5Kj4z

Siga-nos no Twitter!
Curta nossa página no facebook!
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

Ultrabook/Notebook AMD, Core i3, i5 ou i7 ?

Estou pesquisando opções de ultrabook/notebook para montar um “lab on a chip” (será que inventei o termo ?), e tive algumas dúvidas, principalmente sobre a possibilidade de que um sistema com o processador Intel core i5 fosse suficiente, por isso resolvi buscar mais informações sobre o assunto, e o resumo do que encontrei segue abaixo.



Core i3 – uso “doméstico” (acessar a web e executar programas de escritório, embora possa servir pra jogos com uma boa placa de vídeo)

Os processadores Intel Core i3 3220-3240 são dual-core, construídos em processo de fabricação 22nm, têm Hyperthreading, mas não têm Turbo Boost. Trazem processador gráfico embutido, a maioria deles HD Graphics 2500 (exceto a 3225 que tem HD Graphics 4000).



Core i5 – uso “profissional” (execução de aplicações mais pesadas – 3D, edição de vídeo e execução de máquinas virtuais, com limitações)

Os modelos do processador Intel Core i5 3330-3570 são quad-core, construídos em processo de fabricação 22nm (melhor eficiência de energia), têm a tecnologia Turbo Boost, mas não Hyperthreading. Trazem processadores gráficos HD 2500 e 4000.


Core i7 – uso “hard” (execução de aplicações realmente exigentes – 3D, edição de vídeo, virtualização e jogos em resolução máxima)

Os modelos atuais do Intel Core i7 compreendem duas linhas de produtos diferentes, e assim exigem motherboards diferentes e têm diferentes capacidades. O Core i7 3770 geralmente se encaixa nas placas-mãe do i3 e i5, é construído com o processo de 22nm, tem quatro núcleos, Hyperthreading, Turbo Boost e HD Graphics 4000. Também é relativamente barato quando comparado a outros modelos i7.
Os modelos Core i7 3820-3970 podem ser de quatro núcleos ou seis núcleos, construídos em processo de 32nm, têm Hyperthreading e Turbo Boost, mas não têm placa gráfica embutida.

AMD
Encontrei alguns testes com processadores AMD, especialmente a linha FX, mas eles são entre 10 e 20% mais lentos que os Core i7. Pode valer a pena se não quiser gastar muito e não precisar de tanto desempenho, mas só encontrei um modelo de notebook AMD FX no Buscapé. Em compensação, custava menos de R$ 2 mil.

Conclusão
Pelo que vi dos testes e análises que li, a 3ª geração de processadores da Intel, “Ivy Bridge”, não acrescenta muito em termos de desempenho, trazendo apenas pequenas melhorias, por isso pode valer a pena comprar um processador Sandy, especialmente se o preço for convidativo.
O modelo Core i7 3770 representa a melhor opção em termos de custo/benefício se você precisa de alto desempenho, mas o preço é salgado, em torno de R$ 3 mil. Se não tiver esta grana, melhor tentar um Core i5, especialmente se for usar pra jogar, pois aí é mais importante uma placa de vídeo de alto desempenho que um processador.
Se for usar para testes, montar um lab (meu caso), melhor caprichar na memória e no HD, pois máquinas virtuais exigem muito espaço. Estou pensando num Core i7 ou i5 com 8 GB de RAM e 750 GB a 1 TB de HD, se possível com um SSD de 24 ou 32 GB pra “acelerar”, mas aumenta bastante o custo.
Bom, é isso. Espero que as informações sejam úteis.

O #RAID como conhecíamos já era. É hora de repensar a proteção dos dados!

Antes de mais nada, quero agradecer ao “Malarro News” pela dica de mais um espetacular artigo do Robin Harris, do Storage Mojo, figurinha carimbada nas citações aqui do blog (recomendo ler sobre a reformulação da Lei de Moore). Mas voltemos ao tema principal do artigo: RAID.
O Robin informa (para minha surpresa e, creio, de muitos) que RAID 5 não funciona desde 2009 para disco SATA, e fornece referência. E pontua:
  • Os autores dos estudos que criaram o conceito de RAID em 1988 tomaram outros rumos;
  • Google e Amazon não usam RAID em suas estruturas de armazenamento;
  • HP, NetApp, EMC e Hitachi estão vendendo soluções noRAID;
A justificativa para não usar RAID, especialmente RAID 5, está no fato de que a evolução tecnológica dos últimos anos criou várias dificuldades para o algoritmo no qual o RAID se baseia:
  • Os discos estão maiores, em quantidade e capacidade;
  • O tempo de rebuild tem aumentado, e com ele o risco de outro disco falhar durante o processo;
  • O próprio volume de leituras e escritas do rebuild aumenta o risco de outra falha, e portanto é necessário suportar pelo menos 2 discos com falha;
Diante deste cenário, alguns fabricantes estão desenvolvendo suas próprias soluções, e a recomendação é, enquanto não se consolida uma alternativa aos mecanismos de RAID atuais, utilizar aqueles que suportam pelo menos a falha de dois discos, como o RAID 6.
Desde a década de 90, alternativas têm surgindo, permitindo inclusive determinar a quantidade de discos com falha que pode ser suportada, e algumas empresas têm investido nisso. A Amplidata é uma delas, e o Robin mostra um vídeo que revela as vantagens de utilizar estes novos algoritmos, que permitem resistir a até 4 falhas com um overhead de armazenamento entre 50 e 60%, o que é melhor que replicar em até 3 lugares diferentes a informação, como fazem, segundo ele, Google e Amazon.
Vamos aguardar os acontecimentos. Por enquanto, vi (numa busca rápida) que tem gente da HP e IBM desenvolvendo pesquisas a respeito.