terça-feira, 1 de dezembro de 2009

A Computação está nas nuvens

Um dos termos mais na moda atualmente em relação à infra-estrutura de computadores é o “Cloud Computing”, que em bom português pode ser traduzido como “Computação em Nuvem”.

Para explicar melhor este conceito, vale à pena rever primeiro algumas outras idéias, para um melhor entendimento. Primeiro, a indústria da tecnologia da informação, que já foi chamada de processamento de dados, tem “ondas” de tendências, e isso é valido especialmente quando se fala no segmento corporativo.

Quando o mundo viu o advento da computação, a idéia era concentrar o processamento em grandes (e caríssimos) computadores, os chamados “mainframes”, acessados por terminais com pouco ou nenhum poder de processamento e armazenamento.

Isso era considerado uma verdade quase absoluta pelos líderes de mercado em meados do século 20. Prova disso são frases como “I think there is a world market for maybe five computers" (“Acho que há mercado mundial para talvez cinco computadores”), dita em 1943 pelo então presidente do conselho de administração da IBM, Thomas Watson, e "There is no reason anyone would want a computer in their home" (“Não há nenhuma razão pela qual alguém vá querer um computador na sua casa”) dita em 1977 pelo fundador da DEC, Ken Olson.

A História mostra que os inovadores como Steve Jobs, um dos fundadores e atual CEO da Apple, questionaram os líderes de mercado (para o bem da humanidade) e o mundo assistiu ao surgimento do Computador Pessoal, o famoso PC (do inglês “Personal Computer”) no final dos anos de 1970.

Durante a década de 1980 o Computador Pessoal se consolidou como ferramenta de trabalho principalmente nas empresas e, ao mesmo tempo, foram criados servidores menores baseados na mesma arquitetura do PC e com configurações mais robustas.

Assim, nos anos de 1990 vemos o surgimento de uma nova tendência, o “downsizing” de servidores, já que a adoção da arquitetura PC representava uma opção mais barata, mais flexível e com melhor relação custo x benefício em relação aos mainframes.

Com o “downsizing”, os PCs passaram a ser conectados em rede a servidores que não tinham tanto poder de processamento e, para que os sistemas funcionassem adequadamente, o processamento era distribuído entre a máquina que acessava o sistema e o servidor, o que se convencionou chamar de “arquitetura cliente-servidor”.

Isso não significou o fim dos mainframes, que continuam sendo utilizados até hoje no segmento financeiro e em grandes organizações, mas sem dúvida barateou o acesso à tecnologia e facilitou sua adoção em larga escala, principalmente nas empresas.

A partir dos anos de 1990 também vemos a expansão da Internet, que se consolidou a partir do ano 2000, além de computadores pessoais e servidores cada dia mais potentes.

Com isso passamos a ter mais recursos computacionais e bandas de comunicação disponíveis, possibilitando a troca de dados e informações entre computadores, em volume e velocidade crescentes. Assim, grande parte dos sistemas que antes compartilhavam recursos entre os servidores e as máquinas que os acessavam (“cliente-servidor”), passam a ser acessados exclusivamente pela internet (web), sendo 100% processados nos servidores.

Outros dois fenômenos que ocorrem nessa época são a Globalização, que ampliou a concorrência entre as empresas em nível mundial, e o conceito de “TI Verde”, que surgiu a partir de uma conscientização sobre as mudanças climáticas e o aquecimento global.

Em resumo, o cenário atual mostra o seguinte: em tempos de globalização, a internet é algo fundamental e a cada dia temos possibilidade de trafegar mais informações e com velocidade crescente; os computadores estão cada vez mais potentes, mas com baixa eficiência energética; a maior parte dos servidores em uso possui uma capacidade ociosa não utilizada; com a concorrência trazida pela globalização, é necessário que as empresas racionalizem seus custos; e as áreas de TI não ficam imunes a isso.

A partir dessas questões, surge o conceito de “virtualização” de servidores, que visa aproveitar melhor os recursos computacionais disponíveis. A partir da adoção de softwares como VMWare ou Xen, um único servidor físico passa a conter vários servidores virtuais compartilhando os recursos da máquina. Para os usuários, esses servidores virtuais são vistos como máquinas físicas. Para os gestores, causa um aumento da eficiência energética dos computadores com uma racionalização de custos, e ainda por cima colaborando com a natureza. Fantástico!

Porém, algumas aplicações podem demandar mais do que um único servidor físico, ou servidores muito grandes cujo custo pode ser proibitivo. Quando isso acontece, é necessário consolidar a infra-estrutura unindo vários servidores em clusters ou grids, ou então partir para servidores mainframe, cujo custo é inacessível para a grande maioria das empresas.

A consolidação pura de servidores físicos é algo complicado de implantar, porém quando se expande o conceito de virtualização para um conjunto de servidores, a coisa muda, pois foram disponibilizadas ferramentas para tal. Pode-se criar um conjunto de servidores atuando em conjunto, o que se chama de cluster, com uma solução de armazenamento de dados centralizada, integrada aos mesmos (storage).

Vejam que esse conjunto de servidores mais a solução de armazenamento podem gerar vários servidores virtuais, cuja operação também é transparente para o usuário, que os acessará da mesma forma que faria com servidores físicos. E, para dar suporte a esse conjunto de equipamentos, os já mencionados softwares VMWare e Xen, entre outros, foram expandidos para dar suporte a esse tipo de configuração.

E é aqui que chegamos ao primeiro degrau do conceito de Cloud Computing. Por analogia, essa solução virtualizada de servidores e armazenamento pode ser considerada uma “nuvem” de recursos. Aliás, a própria internet é freqüentemente representada como uma nuvem, pois acessamos vários recursos, páginas, etc., sem sabermos onde estão e nem como funcionam.

Pois bem, nesse primeiro estágio do Cloud Computing, os gestores de TI passam a contar com uma nuvem de recursos que são configurados de acordo com a necessidade da empresa, com benefícios tais como:

- Redução do espaço ocupado por servidores físicos;
- Redução do consumo de energia, pois há menos equipamentos;
- Redução dos custos com ar-condicionado, pois com menos equipamentos há menor dissipação de calor;
- Redução da complexidade do ambiente dos servidores, com menos cabos, tomadas, etc., facilitando a sua gestão e operação;
- Aumento da disponibilidade dos servidores, pois se algum servidor físico falhar, o software que gerencia a configuração faz o balanço de carga de processamento com os demais que fazem parte da nuvem, até que o problema seja solucionado.

Mas será que Cloud Computing é só isso, algo ligado apenas ao segmento corporativo? Na verdade, nem os próprios especialistas ainda sabem direito como definir esse conceito, porém há um consenso geral de que ele irá mais além do que simplesmente a virtualização de computadores, atingindo um público muito maior do que o corporativo.

Espera-se que o aumento de capacidade computacional dos servidores e principalmente o aumento da oferta de banda de comunicação continuem de forma constante. Assim, o poder computacional dos computadores pessoais não precisará mais ser tão grande, já que tudo poderá ser acessado on-line e, dessa forma, o processamento e o armazenamento de dados ficarão na nuvem de servidores e dispositivos de armazenamento que estarão na internet.

Juntamente com isso, espera-ser que cada vez mais os aplicativos (softwares) sejam migrados para a internet, dispensando a sua instalação nos PCs. Assim, a tendência é que os computadores pessoais sejam cada vez mais simples, leves e práticos de usar, com recursos mais voltados à conectividade em rede do que para o processamento e o armazenamento local.

Empresas como o Google, a IBM, a Oracle, Locaweb, entre tantas outras estão trabalhando nas suas soluções de Cloud Computing, seja para consumo interno ou para venda, e em diferentes estágios de adoção. Alguns estão focando no momento apenas a infra-estrutura de servidores, outros já estão pensando além.

Um exemplo de um “próximo passo” foi dado pelo Google, ao disponibilizar um conjunto de aplicativos para escritório na internet, o “Google Docs”. Esse pacote de software é acessado 100% via internet e permite a criação e edição de documentos, planilhas, apresentações, etc., que inclusive podem ser armazenados no próprio espaço disponibilizado pelo Google para cada usuário. Para acessar esse sistema não é necessário instalar nada, basta um computador conectado à internet.

Vejam que, tal qual o ditado, o “mundo da TI também dá voltas”. Se nos lembrarmos que no início dos tempos dos computadores o conceito vigente era de um grande servidor acessado por terminais com pouco ou nenhum poder de processamento e armazenamento, hoje percebemos uma volta a esse cenário.

Porém, ao invés de um único grande computador restrito ao ambiente de uma organização, teremos algo em escala global, com nuvens de servidores em vários locais trabalhando em rede para executar diversos softwares que poderão ser acessados on-line, formando uma grande nuvem que será a internet do futuro.

2 comentários: