Supercomputadores e clusters

Na década de 40, todos os computadores do mundo eram gigantescos e caros, custando vários milhões de dólares, mas agregando tudo o que havia mais avançado em termos de conhecimento humano. Pois bem, vendo de hoje, pode parecer ridículo que qualquer
calculadora de mão de 3 reas possa ter um poder de processamento superior ao de um Eniac, que só de manutenção custava quase 200.000 dólares por dia, mas os supercomputadores continuam existindo, tão grandes e caros quanto um Eniac, porém
incomparavelmente mais rápidos do que os micros de mesa, como o que você está usando neste exato momento.

Este trecho final é dedicado a eles, os mastodontes que estão por trás de muitos dos avanços da humanidade, que apesar de estarem escondidos em grandes salas refrigeradas são alvo de grande curiosidade.

Apesar de mesmo um “PC de baixo custo” atualmente possuir um poder de processamento superior ao de um supercomputador que a 15 anos atrás custava 5 milhões de dólares, a demanda por sistemas casa vez mais rápidos continua.

As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares diversas, e vários tipos de aplicativos financeiros e relacionados à Internet, aplicativos que envolvem uma quantidade absurda de processamento, e claro,
envolvem instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo demanda… aparecem os fornecedores.

Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs, e processadores, Intel, IBM e em alguns casos também chips Athlon. A diferença é que vários processadores,
HDs e módulos de memória são combinados para criar um sistema incrivelmente rápido.

Ao invés de usar apenas um disco rígido IDE, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os
pedaços simultaneamente apartir de vários HDs, obtendo taxas de transferência muito altas. A capacidade total de armazenamento de um supercomputador já é medida na casa dos Terabytes, o IBM ASCI White, que é considerado o supercomputador mais poderoso
atualmente (final de 2001) tem 160 Terabytes de armazenamento em disco.

Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa. Os
nós por sua vez são interligados através de algum tipo de barramento ultra-rápido, o que os torna partes do mesmo sistema de processamento. Como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão
surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós a coisa muda de figura.

Os processadores mais utilizados atualmente são processadores Pentium III ou chips IBM Power 3, (produzidos especialmente para esta tarefa), entre algumas outras opções. Os processadores Athlon não são os preferidos da indústria neste segmento, pois
apresentam uma dissipação de calor bem mais alta que os chips Intel e IBM, o que torna-se um problema grave ao usar vários chips dentro do mesmo gabinete. Se num micro doméstico já é preciso um bom cooler e uma boa ventilação do gabinete para usar apenas
um chip Athlon, imagine o problemão que é juntar 200 ou 500 destes chips.

Algumas empresas vem cogitando o uso de chips Crusoé, o que faz sentido, já que apesar do baixo desempenho, estes chips consomem pouca eletricidade e geram pouco calor, um Crusoé sozinho tem um desempenho muito abaixo do de um Pentium III, mas se for
possível usar mais chips Crusoé na mesma máquina, a maior quantidade pode compensar o menor desempenho por cabeça.

Como disse a pouco, o supercomputador mais poderoso da atualidade (2001) é o IBM ASCI White. Ele possui nada menos que 8192 processadores IBM Power 3 de 375 MHz com filamentos de cobre. A baixa freqüência de operação dos processadores é justificada
pela necessidade de uma estabilidade irretocável e baixa dissipação de calor. O supercomputador tem um poder de processamento estimado em 12.3 teraflops, uma potência mais de mil vezes superior à de qualquer PC topo de linha atual. Completando, temos 6
Terabytes de memória RAM e um total de 160 Terabytes de armazenamento em disco. Em compensação o sistema é simplesmente gigantesco, ocupando uma área equivalente à de duas quadras de basquete.

Outro sistema bastante poderoso é o ASCI Blue-Pacific, formado por 1296 nós, de 4 processadores cada, totalizando 5856 processadores PowerPC604e de 332 MHz em paralelo. 423 dos nós tem 2.5 GB de memória RAM cada, e os demais tem 1.5 GB cada,
totalizando 2.6 Terabytes no total.

A capacidade de armazenamento em disco fica em 62.3 Terabytes. A velocidade total de acesso a disco chega a 10.5 GB/s, quase mil vezes o que temos num micro de mesa. Esse aparato todo é dividido em 162 gabinetes ligados entre sí, que também ocupam a
área de duas quadras de basquete.

Sistemas como estes são extremamente poderosos, o problema é que são incrivelmente caros, custando dezenas de milhões de dólares. Tanto o ASCI White, quanto o ASCI Blue-Pacific são únicos e existem no mundo apenas mais alguns poucos supercomputadores
com uma potência próxima à mostrada por eles.

Uma opção mais barata para uma companhia que precisa de um supercomputador, mas não tem tanto dinheiro assim disponível é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede. Em muitos
casos sequer é preciso que os PCs tenham uma configuração idêntica, e a conexão pode ser feita através de uma rede Ethernet 10/100, ou mesmo através da Internet.

O exemplo mais famoso de processamento distribuído foi o projeto Seti@Home, onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes
de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem participassem do projeto. O sistema montado pela Seti@Home é considerado por
muitos o supercomputador mais poderoso do mundo.

Este tipo de sistema pode ser construído usando por exemplo a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O
mais interessante é que estes PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.

A tecnologia de cluster mais usada atualmente são clusters Beowulf, formados por vários computadores interligados em rede. Não é necessário nenhum hardware sofisticado, um grupo de PCs de configuração mediana ligados através de uma rede Ethernet de 100
megabits já são o suficiente para montar um cluster beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento. A idéia é criar um sistema de baixo custo, que possa ser utilizado por universidades e pesquisadores com poucos
recursos.

O primeiro cluster beowulf foi criado em 1994 na CESDIS, uma subsidiária da NASA e era formado por 16 PCs 486 DX-100 ligados em rede. Para manter a independência do sistema e baixar os custos, os desenvolvedores optaram por utilizar o Linux.

Estes clusters não servem para processar dados em tempo real (um game qualquer por exemplo), mas apenas para processar grandes quantidades de dados, que podem ser quebrados em pequenas partes e divididos entre os vários computadores. Uma área onde são
populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema. Há inclusive casos de filmes como Shrek e Final Fantasy que foram feitos inteiramente em clusters beowulf.

Os primeiros supercomputadores começaram a surgir na década de 60, alias uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula,
era muito mais durável e tinha a vantagem de gerar pouco calor.

Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior
ao de uma agenda eletrônica atual, e das mais baratinhas.

Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.

Na década de 70 surgiu uma nova revolução, os microchips, formados por alguns milhares de transístores. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e
mais barato. Surgiram então os primeiros microcomputadores.

Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes, os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs e o ASC da Texas Instruments.

Estes sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Esta é a mesma capacidade de processamento de um Pentium 60, a diferença é que o Pentium surgiu quase 20 anos mais tarde.

No final da década de 70 sugiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1 processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 Gigaflop, no início da década de 80. Esta é uma
capacidade de processamento próxima à de um Pentium II 350.

Os supercomputadores desta época foram usados principalmente na corrida espacial, aliás eles foram os principais responsáveis pelo sucesso do programa espacial Americano sobre o Russo. Uma viagem espacial demanda um número absurdo de cálculos. Os
Americanos tinham computadores melhores que os Russos, o que antecipava seus lançamentos.

Sobre o Autor

Redes Sociais:

Deixe seu comentário

X