value1

Central Nacional Unimed compartilha dados de 1,5 milhão de clientes em nuvem

Os dados dos mais de 1,5 milhão de beneficiários da Central Nacional Unimed estão, a partir de agora, compartilhados em uma nuvem privada. Parte das informações está no data center da operadora na Alameda Santos, parte na Unidade Pamplona, inaugurada em junho do ano passado.

 

A Central Nacional Unimed é a operadora nacional dos planos de saúde empresariais Unimed. Suas 324 sócias são as cooperativas Unimed, que atendem 1,5 milhão de clientes da Central Nacional Unimed. Os contratantes da operadora nacional são empresas que atuam em três ou mais estados, com no mínimo 300 vidas em carteira.

Data Center verde

“Investimos em um data center verde, com virtualização de servidores/storage, economia de energia, diagnóstico e gerenciamento remotos, redundância de sistemas e maior escalabilidade (possibilidade de ampliação do processamento), para acompanhar o crescimento dos negócios”, conta Mohamad Akl, presidente da Central Nacional Unimed.

“Os dois centros de processamento de dados funcionam como um só, com todos os sistemas replicados, assegurando a continuidade de operação e dos negócios da Central Nacional Unimed, em caso de falha em um dos sites ou de sinistro nas instalações físicas da empresa", explica o executivo.

A replicação dos data centers é feita por meio de links dedicados, redundantes e exclusivos da CNU, que percorrem rotas (ruas) diferentes. “Além disso, temos os links de duas operadoras de telecomunicações, em que trafegam dados/voz para acesso aos sistemas e telefonia”, explica Walter Shimabukuro, gerente de TI da operadora.

Inovações via TI

Várias das inovações do novo centro de processamento de dados foram desenvolvidas pela equipe de TI da CNU. Por exemplo, o isolamento total do corredor frio entre os servidores. Isso otimiza o rendimento do ar condicionado, e evita demanda extra de energia. Outra inovação, que facilita o transporte de equipamentos pesados, como servidores e nobreaks, é uma plataforma automática, que se transforma em escada ou elevador.

Um dos destaques do novo data center é o sistema elétrico, totalmente redundante desde a entrada da energia fornecida pela AES-Eletropaulo. Além do grupo gerador que sustenta o processamento de dados e todo o edifício, há uma infraestrutura para a instalação de gerador externo em caso de emergência.

O sistema também é protegido contra desligamento inadvertido ou programado de uma das fontes, a partir da origem (Subestação Primária), sem interferir no funcionamento do data center, com mais disponibilidade de energia e segurança às instalações. Diversos equipamentos são modulares e podem ser substituídos ou instalados, sem a necessidade de desligamento.

Toda a infraestrutura do centro de processamento de dados, do sistema de ar-condicionado, dos sistemas elétricos (energia, nobreak, quadros, disjuntores, barramentos e grupo gerador), do sistema de combate a incêndios, dos sistemas de segurança (câmeras, portas, luzes e sensores), da temperatura e da umidade é monitorada e gerenciada remotamente, por meio do Sistema de Administração de Infraestrutura do Data Center (desenvolvido internamente), que emite alarmes sonoros e/ou por ligações telefônicas, SMS e e-mail, toda vez que houver algum parâmetro fora dos limites definidos.

Segundo a empresa, foram investidos R$ 5,75 milhões entre a construção do Data Center da Unidade Pamplona da operadora, aquisição de infraestrutura de redes e recursos (equipamentos, software e serviços) para replicação/redundância dos Data Centers.

value1

Melhores ferramentas para guardar seus arquivos na nuvem

É fato que o futuro está no armazenamento em nuvem isso ninguém pode negar, até mesmo por causa de sua facilidade não se precisa mais levar documentos em pendrives ou discos removíveis do gênero, basta você ter um local de acesso à internet e pronto, pode baixar todos os arquivos que quiser ali mesmo, mas qual é o melhor serviço que devo usar para fazer esse trabalho? Geralmente sofremos com a lentidão de certos locais, então precisamos baixar de forma mais rápida, mas nem sempre onde oferece maior rapidez oferece também espaço.

 

Juntei então várias ferramentas, com comparativos e entre outras coisas, espero que vocês escolham o melhor que atenda a necessidade, olhe a tabela abaixo que é o comparativo, mas nem todos que estão na tabela mostrarei ou citarei, coloquei os mais interessantes.

Clique na imagem para aumentar

Google Play

Esse é interessante, pois você pode guardar suas músicas em nuvem e caso aconteça algo com seu disco rígido ou pendrive tudo estará lá.

Um dos recursos mais confiáveis que você pode escolher é o da Google Play. Tudo o que você necessita fazer é entrar no site da ferramenta e baixar o Google Music Manager, que funciona tanto em Mac quanto em Windows.

Sugar Sync

 Deixou de ser tanta atração, pois vieram melhores após ele, na verdade “copiaram” o seu diferencial que era poder acessar seus arquivos de qualquer dispositivo. No site da empresa eu achei apenas uma versão trial, o sugarsync é mais para empresas que desejam guardar com uma empresa privada os seus dados. Você pode fazer o cadastro no site da ferramenta.

Dropbox

Esse é o BigBoss do armazenamento em nuvem, foi lançado em 2008 por uma equipe de estudantes da M.I.T e ficou famoso pela sua praticidade e rapidez, a parte ruim é que você não pode hospedar tanto quanto imagina, mas é uma boa pedida para quem quer guardar suas fotos ou algumas músicas. O conselho que dou é para os designer’s, essa ferramenta é uma ajuda e tanto happy wheels para eles. No site da empresa você baixa para seu computador e cria a conta, pode até mesmo compartilhar arquivos com seus amigos.

GoogleDrive

A gigante Google também entrou na briga e para ganhar, quando se fala em rapidez pode ter certeza que o GoogleDrive ganha, você baixa quase que com toda a banda disponível, é uma maravilhosa ferramenta para download ficando para trás um pouco no upload. Você pode interligar sua conta do googledrive com o gmail e outras ferramentas do google. É oferecido para você 15 GB e com isso você pode brincar até dizer chega.

OwnCloud

O OwnCloud é uma plataforma alternativa ao Dropbox, Google Drive que nos permite criar no próprio servidor a nossa cloud privada. Esta plataforma disponibiliza, além da interface web, suporte para as plataformas móveis mais populares, permitindo a partilha de calendário, fotografias, documentos, musica, etc… entre dispositivos. Sua instalação é mais complicada e merece atenção especial, vou mostrar logo logo para vocês como instalar essa super ferramenta. É uma das minhas favoritas.

Conclusão

Basicamente são esses os nossos amigos, vou fazer uma vídeo-aula ensinando como fazer sua nuvem privada com o OwnCloud e postarei como atualização aqui. Obrigado e até a próxima :)

Atualização 0.1:

Um dos leitores constatou um erro nos valores e realmente olhando a tabela podemos ver que a maioria dos serviços atualizaram quanto a limite de upload, o google drive que havia começado com 5 GB livres agora oferece 15 GB.

Ele chegou a citar o OneDrive que é uma substituição do SkyDrive da microsoft. A ideia é similar a todas as outras nuvens, você pode fazer o backup e sincronizar todos os seus dispositivos com o OneDrive, o interessante dessa ferramenta é a ideia de multi-edição, ou seja, várias pessoas podem alterar o mesmo arquivo ao mesmo tempo assim como o GoogleDrive. Para cada amigo que você indicar, você ganha 500 MB até deixo o link para vocês se inscreverem pelo meu convite :B

Obrigado Pedro pela colaboração!

Atualização 0.2:

Eu disse que faria um vídeo sobre a instalação do OwnCloud, uma nuvem privada, e deixo logo abaixo o vídeo para vocês:

{media load=media,id=330,width=200,align=left,display=inline}
fonte: http://securityattack.com.br
value1

Do mainframe viemos, ao mainframe voltaremos

Há poucos dias ouvi de um amigo a seguinte frase: “do mainframe viemos, ao mainframe voltaremos”. Imediatamente passei a usá-la em entrevistas e conversas com colegas para explicar o que é a computação em nuvem. Sempre busco analogias para desmistificar o conceito de “cloud” e tentar aproximar as pessoas dessa nova tecnologia para que possam colher os benefícios.

 

Recentemente escrevi sobre segurança na nuvem com a provocação “dinheiro no colchão ou no banco”. Hoje vamos falar de mainframe, que se assemelha tanto a computação em nuvem por ser um computador de grande porte, normalmente utilizado no processamento de um alto volume de informações por inúmeros usuários.

Eles surgiram na década de 1940. Eram supermáquinas ocupando enormes salas. Eram caros e centralizados, mas capazes de oferecer serviços de processamento a milhares de pessoas conectadas através de terminais “burros” (com pouca capacidade de processamento). Com os primeiros mainframes surgiram as primeiras aplicações de virtualização, uma tecnologia aperfeiçoada ao longo dos anos e que hoje é indissociável do conceito de cloud computing. De forma simplificada, virtualização é um conjunto de softwares que permite agregar ou fatiar infraestrutura de TI, criando “servidores virtuais” com característica de processamento e armazenamento na medida da necessidade de cada empresa.

Os mainframes surgiram para atender as necessidades de TI de grandes companhias – as únicas que podiam pagar seu alto investimento. Os ambientes computacionais eram geridos por mão de obra altamente qualificada e instalados em datacenters de primeira linha. Ter acesso a um mainframe era possuir uma Ferrari da tecnologia. Na computação em nuvem é muito parecido. Os recursos instalados em datacenters servem vários clientes, são geridos por especialistas e usam da virtualização, o que permite a construção de máquinas com capacidade quase infinita comparada às necessidades de um cliente típico.  

Uma das características do mainframe era o acesso remoto e simultâneo de grande número de usuários através de terminais “burros”. Nesta analogia, na computação em nuvem o acesso se dá por um terminal que isoladamente possui menos capacidade de processamento que o ambiente centralizado. Ao longo dos anos, evoluímos dos terminais burros para o processamento distribuído, quando esses terminais se tornaram mais “inteligentes” e se transformaram em computadores pessoais. Na ultima década voltamos a ter uma grande concentração nos núcleos e uma progressiva miniaturização dos terminais de usuários, trazendo o benefício da mobilidade. Entramos na era atual dos smartphones e tablets potentes, alavancados pelos softwares e aplicações disponíveis com o cloud computing.

A computação em nuvem nada mais é do que isto: maior mobilidade e acesso à capacidade computacional quase infinita em um modelo de contratação de aluguel de softwares e hardwares. É a chance de se beneficiar do suporte de especialistas e poder, por uma fração do preço, usufruir da infraestrutura de ponta que antes era privilégio apenas de grandes corporações que podiam investir nos supercomputadores. Do mainframe viemos e nele retornaremos, mas de uma forma bem mais acessível. A nuvem diminui barreiras de entrada estendendo os benefícios da tecnologia da informação às pequenas e médias empresas também.

Matéria completa: http://corporate.canaltech.com.br/

value1

Até 2016, maioria dos novos investimentos em TI será na nuvem

nuvem-empresaDe acordo com o Gartner, “o uso da computação em nuvem continua crescendo e, em 2016, esse crescimento vai aumentar para tornar-se a maior parte dos investimentos de TI. 2016 será um ano decisivo para a nuvem, com as nuvens privadas começando a dar lugar às nuvens híbridas, e quase metade das grandes empresas terá implementações de nuvens híbridas até ao fim de 2017″.

 

Essas são previsões bastante ambiciosas, considerando que só agora estamos a começando a ver os primeiros projetos. Eque muitas empresas ainda têm reservas sobre cloud computing e consideram a tecnologia a opção menos segura, segundo Mette Ahorlu, Diretora de Pesquisas de Europe Services do IDC. De fato, a maior migração de aplicações para a nuvem deve ocorrer ao longo dos próximos anos. Se tudo correr dentro do cronograma, a previsão de crescimento da Gartner se tornará realidade.

David Linthicum, da Infoworld, já não tem tanta certeza quanto à previsão sobre as nuvens híbridas. Na opinião dele, as empresas vão utilizar uma variedade de modelos de nuvem, resultando numa realidade “multicloud” em vez de híbrida. Muitas empresas estão descobrindo que as implantações de nuvem capazes de atenderem às suas necessidades são mais complexas do que os modelos de nuvem privados, públicos ou híbridos.

De qualquer forma, o crescimento da nuvem será impulsionado, em grande parte, pelas áreas de negócio, e não pela área de TI. O maior impulso para a adopção da computação em nuvem virá principalmente das empresas que procuram formas mais eficientes para fornecerem serviços de TI, diminuir o “time to market” e aumentar a agilidade.

Em entrevista publicada pelo blog Zero Distance, da T-Systems Brasil, Mette Ahorlu diz que a consultoria tem notando um aumento no uso de ferramentas de produtividade para a nuvem, por exemplo. As próximas grandes descobertas devem ser no terreno de testes e nas soluções de business intelligence. A longo prazo, a expectativa é ver as pessoas migrarem seus sistemas centrais de ERP para a nuvem. E haverá várias tendências com foco em mercados verticais – porque mais e mais empresas estão reconhecendo que uma mesma solução não serve para todos. Análise de Big Data é alguma coisa sobre a qual estamos ouvindo muito justo agora – e uma coisa que os usuários gostariam de tirar mais proveito na nuvem no futuro.

Linthicum acredita que o crescimento será mais em torno do desenvolvimento de aplicações e migração de aplicações do que motivado pela redução de custos com infraestrutura. É do lado das aplicações que encontramos o maior valor para a nuvem, e onde o verdadeiro trabalho precisa de ser feito para que as empresas possam obter uma vantagem significativa da infraestrutura mais barata oferecida pela nuvem.

Na opinião de ambos, cloud vai crescer em importância como um modelo de entrega e tornar-se uma parte integral da TI moderna."Tradicionalmente os CIOs constroem a TI. Mas os CIOs do futuro serão compradores e não construtores – eles vão gastar seu tempo buscando soluções de TI como serviço ao invés de cria-las", afirma Mette Ahorl.

Parece que todos os CIO vão estar muito ocupados em 2015 e 2016.

Cloud-Computing-Infographic

Leia mais sobre o impacto de tecnologias disruptivas como computação em nuvem, big data, mobilidade e mídia social na vida dos CIOs no blog Zero Distance.

fonte: http://cio.uol.com.br/

value1

As 10 principais tendências em TI para 2014 - Maior adesão à nuvem privada

nuvem-privadaSemanas atrás, Hu Yoshida, CTO Global da Hitachi Data Systems, iniciou em seu blog corporativo uma série de artigos prevendo os principais movimentos do mercado de TI no próximo ano. A CIO Brasil publicou, com exclusividade, o primeiro deles, listando as 10 principais tendências, na opinião do executivo. E, depois, o artigo detalhando as duas primeiras. Nos próximos dias, publicaremos o detalhamento das demais.

 

Abaixo, você lê a análise da terceira tendência, que prevê um aumento considerável de empresas implementando nuvens privadas.

:: Maior adesão à nuvem privada
A nuvem vem se tornando um modelo de serviço mais aceito. Pesquisa recente realizada entre empresas de grande de porte  mostra que aproximadamente 10% das cargas de trabalho estão sendo executadas em nuvem. Software como Serviço (SaaS) para aplicativos de back office como e-mail, RH, CRM e armazenamento ou backup são serviços com maior aderência às nuvens públicas. Infraestrutura como Serviço (IaaS) em nuvens públicas geralmente é utilizada para gerar elasticidade, transferindo demandas adicionais de capacidade geradas durante períodos de teste, desenvolvimento, ou em pico sazonais. No entanto, o uso da nuvem pública para as principais aplicações do negócio ainda é considerado de alto risco, devido a questões de segurança, privacidade, qualidade do serviço, interrupções, e altos custos devido ao uso para processamento de aplicações e acesso a dados em todas as redes conectadas à nuvem pública.

Se, por um lado, os custos de infraestrutura na nuvem pública podem ser bem mais baixos quando consideramos só o armazenamento, eles podem aumentar dramaticamente devido aos custos gerados pela frequência de acesso remoto a esses dados. O recente pedido de falência do provedor de serviços de cloud pública Nivanix abalou a confiança nas nuvens públicas depois que a empresa anunciou que seus clientes tinham 15 dias para recuperar todos os seus dados! Isso reavivou memórias de colapso das dot.com, quando os custos capitais dos serviços que as dot.coms ofereciam não puderam ser recuperados facilmente, já que cada usuário cadastrado queria sua própria infraestrutura. Ferramentas como virtualização e provisionamento não estavam disponíveis à época para permitir o reforço da infraestrutura junto a diversos usuários e a diluição dos custos capitais.

Por diversas razões, os clientes buscam hospedar suas principais aplicações em nuvens privadas, protegidas por seus firewalls e sob seu controle. Novas tecnologias como virtualização, soluções convergentes, Software Defined Data Center e novos modelos de negócios, como serviços gerenciados, vêm tornando a implementação e operação do modelo de provisionamento em cloud muito mais simples, eficiente e acessível. A Hitachi se uniu à VMware para concretizar sua visão para a Software Defined Data Center.

Screen Shot AM-1

“O que  torna a abordagem da Hitachi impressionante é terem escolhido agregar dados operacionais de cada um dos componentes da plataforma convergente. Ter essa fonte única de dados simplifica bastante a complexidade da integração, e o que é mais importante, gera um desenho de interface para o usuário que reflete verdadeiramente a natureza convergente da plataforma. Essa abordagem integrada atinge diretamente, os benefícios esperados de uma infraestrutura convergente”, afirma Wayne Green, gerente de produtos da VMware, sobre a integração entre a UCP e a vSphere.

Embora uma cloud privada não possa oferecer a elasticidade de um provedor de nuvem publica, que consegue alocar recursos livremente , você tem a certeza que a sua solução de cloud privada é segura, está protegida por seus firewalls e sob seu controle direto. Você tem as ferramentas de automação e agilidade para provisionar seus recursos conforme as necessidades do seu negócio. A conexão direta à cloud privada pode também compensar alguns dos custos de se conectar a um serviço de cloud pública e integrar aplicações de cloud a outras fora dela. Ainda assim, você pode utilizar a nuvem pública para aplicativos de back office como faz hoje. Ou seja, fazer backups ou arquivar uma parte da sua cloud privada em um serviço de cloud pública. A diferença é que agora você tem as ferramentas para adequar a cloud às suas necessidades de negócio.

O mistério e a complexidade de questões quanto à segurança e os riscos na nuvem podem ser colocados de lado com a implementação de uma cloud privada, que ofereça os benefícios de consolidação, agilidade, automação, self-service e charge-backs em uma solução pronta para uso.

Screen Shot AM-2
 
fonte: http://cio.uol.com.br/
value1

Falha do Gmail provoca novos questionamentos sobre cloud

falha-gmailMatthew Cain, analista do Gartner, considera que o incidente desta semana com a indisponibilidade do Gmail levanta questões fundamentais sobre o que é considerado o tempo de inatividade. Especialmente no que se refere aos acordos de nível de serviço de fornecedores de aplicações em  cloud computing.

 

A falha da plataforma exigiu cerca de 10 horas de trabalho para ser corrigida. Afetou cerca de metade dos usuários no mundo, constituindo uma das mais longas e disseminadas interrupções de serviço de e-mail do Google nos últimos anos. “Se a entrega de uma mensagem atrasa 15 minutos, isso pode ser considerado tempo de inatividade? E se forem cerca de duas horas?”, questiona Cain.

“A mudança do serviço de e-mail para cloud computing coloca um ‘holofote’ sobre essas questões essenciais, relativas às métricas necessárias para medir e compensar por desempenhos inferiores na entrega de mensagens, que tradicionalmente não são classificados como inatividade”. Na última terça-feira, a Google ofereceu mais detalhes sobre a causa do problema e as medidas de correção tomadas.

A causa foi uma dupla falha de rede “muito rara”, que afetou duas rotas de encaminhamento distintas, redundantes, de acordo com uma mensagem no blog de Sabrina Farmer, gerente de engenharia sênior para o Gmail. O incidente tem muita importância para a Google e as pessoas afetadas, mas não deve dissuadir os CIOs de usarem a suite, segundo o analista da Forrester Research, TJ Keitt.

Na sua opinião os prestadores serviços em cloud computing devem ser avaliados pela rapidez com a qual apresentam correções – além da robustez das mesmas.

fonte: http://cio.uol.com.br/

value1

Serviço chinês oferece 10 TB de armazenamento na nuvem grátis

thumb armazenamento em nuvemAqui no Ocidente, vemos Dropbox, SkyDrive e outros serviços de armazenamento na nuvem oferecendo alguns poucos gigabytes de espaço livre para quem não está disposto a pagar. Na China, o negócio é diferente. O Baidu, empresa conhecida como o "Google" do país, já oferece 1 terabyte gratuito. Agora, surge outra empresa, disposta a oferecer 10 TB de espaço livre na internet sem precisar pagar nada.

Para atrair mais clientes no cada vez mais competitivo mercado de armazenamento em nuvem, a empresa Tencent criou uma promoção de seu serviço em nuvem, chamado Weiyun que oferece esse monte de espaço livre.

A pegadinha é que esta capacidade não será liberada de uma vez. Conforme a pessoa for usando, mais espaço vai sendo acrescentado à conta, até chegar aos 10 TB que limitam o plano gratuito.

O quadro abaixo mostra como funciona. A linha superior indica o quanto de uso de armazenamento é necessário para liberar o espaço abaixo. Por exemplo: ao utilizar 4,5 TB, o serviço abre 6 TB para o usuário. Depois que ele ocupar 5,5 TB, ele recebe 7 TB e assim por diante.

ranking
Para tentar se cadastrar, basta acessar o site da empresa e clicar no grande botão azul no centro da página. O Weiyun tem aplicativos para iOS e Android. O Olhar Digital não garante a qualidade do serviço.

http://olhardigital.uol.com.br/

value1

O lado oculto do EC2 – Ephemeral Storage

ephemeral-storage-ec2De quanto espaço em HD você precisa? Quer pagar quanto???

Bem de quanto de espaço em HD você precisa no EC2? Bem em meus teste procurei otimizar ao máximo os custos do AWS, dai então minhas instancias possuem somente 10gb de espaço de disco.

 

Descobri com a prática(Pois não sou sysadmin sou desenvolvedor com foco na melhor performance de uso do Magento) que se paga mais por HD maiores no AWS, ou seja, uma instancia média(medium) com 8gb custa em torno de uns 60USD/mensal, já uma instancia também medium com 15gb de hd custa em torno de uns 100USD/mensal. Preço legal para pequenas empresas que usam particularmente o Magento.

Pois sem sombras de dúvidas o Magento fica FODA!!! Com as tecnologias e configurações adequadas, tais como: Nginx, Varnish, Memcached, FPM, APC, Percona, Sphinx,…

Um simples teste que posso apresentar do Magento com o sample data, utilizando essas tecnologias(Nginx, Varnish, Memcached, FPM, APC, Percona, Sphinx,…) e o AWS na instancia Médium acima seria esse nível:

print-webpageteste

print-webpageteste2

Ou seja, First Byte de 0.061s e o Load Time de 1.373s no primeiro view e no segundo apenas 0.868s, ou seja,menos de 1 segundo para carregar o Magento!

PS: Nota-se que o fator de maior destaque para os analistas não é o Load Time que pode ser influenciado por sua conexão com a internet, mas sim o First byte que como pode ser visto ficou pica das galáxias! com menos de 10 milésimo de segundos, com 0.061s!

O link desse teste pode ser visitado por aqui: http://www.webpagetest.org/result/130529_YX_6PX/

Apesar desse espaço ser ótimo para pequenas empresas, ele é pouco para empresa médias! Um cliente que usa a mesma configuração acima porém com 100GB de HD, paga aproximadamente 250USD/mensal. Ou seja, muito caro né? Na verdade não muito comparado com a qualidade, mas já que podemos otimizar custos, vamos lá!

PS: Você pode conferir os espaços reservados para cada instancia visitando o link: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#using-instance-storage ou a tabela abaixo:

print03Então já que consultando a documentação da instancias EC2 vemos que existem valores de espaço em HD pré definidos para cada instancia. Por exemplo uma instancia média(medium) possui 410GB de HD reservados, e se estamos usando 10gb ainda teria 400GB livres correto?Ou seja, a instancia Small possui um HD com 160GB, já a instancia M1 Extra Large possui 4 HDs com 420GB cada!

Se a instancia medium possui 410GB de HD reservados, porque existe a diferença de um cliente que usa 8gb para o que usa 100gb? E o que usa 100GB já esta pagando quase 500reais mês! Imagina se jogar para 400GB, provavelmente deve bater próximo aos 1.200 reais mensal.

O espaço reservado para a instancia (O Ephemeral Storage)

Antes de tudo, você sabe oque é Efemero? Não, não é um herói grego, Apesar do nome bem sugestivo! Mas se ele fosse um herói grego, viveria por pouco tempo rs! Isso porque efémero é um adjetivo para algo que só existem durante alguns dias. Ou seja, algo transitório, passageiro ou que dura pouco tempo.

Então vamos lá! Em meu conceito abaixo que seja eterno o efémero! rs

Então depois de muito soco em ponta de faca, descobri que esse espaço adicional reservado para cada instancia se chama ephemeral(efêmero).  Descobri também que se estamos usando 10GB de HD para o root numa instancia média(medium) os outros 400GB estão ocultos!!!!!! PQP

Esse espaço denominado ephemeral(efêmero)  não vem montado previamente nas instancias do tipoAmazon Linux AMI, Centos ou Red Hat, somente na distro do Ubuntu que ele vem previamente montando como segue no print seguinte (em destaque com a linha laranja):

print01

Bem existem outras informações que precisamos saber sobre o volume ephemeral.

  • O ephemeral não POSSUI CUSTO já que se encontra reservado para as instancias;
  • O ephemeral só será encontrado apartir da instancia do tipo Small;
  • Para cada tipo de instancia se tem um tamanho do ephemeral  reservado, por exemplo: Small = 160GB, Medium = 410GB, M1 Large = 2 x 420 GB (840 GB),…;
  • O ephemeral NÃO participa da solução de bakups EBS, ou seja, se você parar a instancia se perde todos os dados dentro da unidade montada com o uso do ephemeral. Ou seja, DONT STOP! Ou… podemos definir nossos soluções de backups para a partição do tipo ephemeral(Vamos ver mais para baixo!)

Como usar o Ephemeral?

Bem como dito anteriormente temos que ter muito cuidado com a partição ephemeral, pois a mesma não esta incluída nas políticas de backups da EBS. Ou seja, não adianta criar AMI ou Snapshot que não vai contemplar esse tipo de partição!

Caso você utilize a distro Ubuntu, você vera que a partição do tipo ephemeral já virá montada por default como um print que passamos acima e irei repetir aqui tb. Caso seja utilizado outra distro teremos que montar na mão a partição do tipo ephemeral.

print01

Segue alguns links que explicam como montar a partição do tipo ephemeral:

Pelo que notei em alguns testes que somente uma partição é montanda no Ubuntu e fica na /mnt, caso utilize instancias maiores que a medium e caso necessite de mais espaços, veja quanto de espaço sua instancia oferece e monte a mesma.

O Backup dos dados da partição do tipo Ephemeral

Bem como já dito anteriormente e novamente irei repetir rs, a unidade ephemeral não esta incluída nas políticas de backups da EBS. Ou seja, não adianta criar AMI ou Snapshot que não vai contemplar esse tipo de partição! OU SEJA, CUIDADO!!!! Pois temos que adortar nossas próprias políticas de backup para essa unidade!

Então pensando nisso descobri algumas formas, tais como: Github, S3, Dropbox,….

Pelo Github

Bem a mais interessante achei a do Github, pois podemos configurar em nosso cron o auto commit(Push) dos dados do nosso Magento para o git private. Assim além de mantermos backup dos dados teremos um alto nível de controle de versões como todos conhecem o Github!

Segue link de alguns projetos para adicionar o git no cron do linux para manter o backup dos dados no proprio git.

Ainda dentro do Git podemos aproveitar e também enviar os backups dos bancos de dados, segue script para criação dos bkps do banco de dados seja em percona, seja no RDS ou mysql.

PS: Seria bom contribuições sobre o https://bitbucket.org/

Pelo S3

Existe também o backup utilizando o S3, existem uns tutos na web como o do Roberto Silva do http://planetatecnologia.com que detalha como montar uma partição usando o S3, apesar de ser uma ótima idéia, não sei se com a partição montada será cobrado por demanda. Mas a ideia que considero legal é de so criar o bkp dos arquivos alterados, para diminuir consumo. Montar o S3 em uma partição é possível graças ao projeto S3FS.

Outros meios

Bem existe inúmeros outros meios, tais como dropbox e outros CDNs, mas recomendo colocar em mente que que devemos fazer o bkp somente dos arquivos alterados para diminuir a carga e assim economizarmos.

Conclusões:

Eu poderia fazer como muitos e guardar essas informações para uso exclusivo, já que não vi muitos posts sobre tal informação. Mas acredito que ele pode ajudar à muitos sysadmins e devsops Magento que usam o AWS a economizarem um bom $$.

E assim continuo mantendo a fé que um dia o EBS fique mais barato e assim possamos aposentar o grande herói grego Ephemero!

Referencias:

Agradeço aos Brothers Isaac Lopes Santos, Samuel Maciel Sampaio, Isaac Sampaio que me ajudam muito enquanto a adm do Linux e outras dúvidas!

fonte: http://www.deivison.com.br/

value1

Modelos e desafios da computação na nuvem

cloudcomputingAntes de contratar um serviço de computação na nuvem é necessário avaliar cuidadosamente os diferentes modelos disponíveis no mercado. Para ajudar o profissional nesta tarefa, o site CIOapresentou as diferenças e similaridades entre as opções, confira.

No SaaS (Software como Serviço) as políticas de grupos e usuários podem ser usadas para garantir que determinadas pessoas tenham acesso às informações selecionadas na base de CRM da empresa. Além disso, esta opção foi desenvolvida para possibilitar acesso a aplicativos.

Já a PaaS (Plataforma como Serviço) tem como principal objetivo a proteção de dados. No entanto, cabe ao profissional planejar a segurança, calculando uma distribuição equilibrada dos serviços em eventuais indisponibilidades. Também é necessário estudar a forma como a criptografia será executada. No caso do modelo IaaS (Infraestrutura como Serviço), o profissional precisa se preocupar em providenciar um framework de governança corporativa para que as transações ocorram.

Nestes casos, existem três principais desafios, o primeiro deles é proteger as informações antes de transmiti-las à nuvem. Os próprios provedores de cloud computing sugerem que pacotes com informações confidenciais sejam  removidos ou enviados de forma criptografada. Nessa hora, surge a dúvida de como realizar a criptografia ou a remoção dos dados antes de enviá-los para o provedor. Uma alternativa para tal situação é a contratação de um broker que faça a criptografia dos dados entre as estações de trabalho e o provedor.

O segundo desafio é não criar espelhos dos sites na nuvem. Habilitar o login único para sistemas locais e para a plataforma de nuvem  pode ajudara a mitigar riscos e custos associados. Afinal de contas, é mais fácil lembrar apenas de uma senha. Também gera menor trabalho para a TI na hora de barrar o acesso de determinado usuário.

Por fim, há ainda o desafio de controlar os investimentos. Para dar conta do monitoramento, as empresas podem contratar um intermediário. O serviço deverá monitorar ativamente a alocação dos recursos e auxiliar as organizações a se manterem dentro das regras de governança e regulamentações.

fonte:  http://olhardigital.uol.com.br/

value1

Caem mais três mitos da computação em nuvem

nuvemDurante alguns anos, tudo o que ouvimos sobre a nuvem foi principalmente entusiasmo. Vai ser o próximo salto transformador da tecnologia, disseram os especialistas. Vai reduzir a complexidade, melhorar a flexibilidade e tornar a TI mais estratégicas para os negócios, disseram os vendedores. Vai ser grande quando chegar, disseram os comerciantes. 

 

Agora que chegou, os usuários descobriram que o modelo não é nenhum bicho papão. Mas continua a haver muitos mitos em relação à computação em nuvem.

É hora, portanto, de dissipar mais três deles, para que possamos entender melhor a realidade da nuvem.

Mito 1: As nuvens privadas são, por padrão, seguras
Muitas empresas estão implementando nuvens privadas com o pressuposto de que só porque são privadas, também são seguras. Não é verdade.

Segurança é algo que você projeta na solução de nuvem - não é automática. Assim, nuvens privadas não são seguras por padrão, e as nuvens públicas não são inseguras por padrão.

Você tem que projetar e implementar a solução de segurança adequada para a nuvem. Só porque você pode ver o seu servidor no data center não significa que os seus dados estejam comprometidos.

Mito 2: Se eu for OpenStack, garanto portabilidade com outros provedores OpenStack
Embora OpenStack esteja se tornando um padrão sólido de IaaS, não há garantia de portabilidade entre os provedores OpenStack.

Quem sabe o que o futuro nos reserva? Se você acha que pode escrever um aplicativo em um OpenStack para a nuvem privada e movê-lo para uma nuvem pública OpenStack, sem qualquer modificação, você está sonhando. Aqueles que se deslocam para plataformas OpenStack devem estar fazendo isso por causa do potencial desta tecnologia, não por causa da portabilidade.

Mito 3: Os provedores de nuvem pública irão acessar e analisar os meus dados sem o meu conhecimento
Provedores de nuvem pública não poderiam se importar menos com os seus dados. Eles se importam que você tenha um bom uso de sua nuvem - e que você pague suas contas de computação em nuvem em dia. O mito de que estejam vendendo os seus dados a terceiros não é verdade, nem que os estejam usando para sua própria inteligência de mercado.

Se você estiver preocupado com isso, criptografe as informações que você pretende colocar na nuvem pública. Dessa forma, ninguém poderá vê-las mesmo que sejam apreendidas pelo governo ou acessadas por um entediado funcionário do data center do seu provedor de nuvem. Se você for ainda mais paranoico, simplesmente não use um provedor de nuvem pública.

fonte:  http://cio.uol.com.br/