Ninguém vive sozinho no mundo. Atualmente até os computadores têm direito a uma rica vida social dentro das redes locais e da internet.
Faz todo o sentido ligar os micros em rede. Você não precisa ter uma impressora, um HD de grande capacidade, um gravador de DVDs e conexão via ADSL para cada micro. Você pode ligar seus micros em rede e compartilhar cada uma dessas coisas entre todos eles.
Imagine que o objetivo de uma rede é simplesmente transportar os bits uns e zeros usados pelos programas de um ponto a outro. Da mesma forma que um conjunto de fios de cobre (as trilhas da placa-mãe) transportam informações do processador para a memória RAM, um cabo de par trançado pode transportar as mesmas informações de um PC a outro.
Do ponto de vista do programa, faz pouca diferença acessar um arquivo gravado diretamente no HD, ou acessá-lo a partir de um compartilhamento dentro da rede, ou mesmo na internet. Em ambos os casos, o próprio sistema operacional é quem acessa o arquivo e o entrega completo ao programa.
As primeiras redes de computadores foram criadas ainda durante a década de 60, como uma forma de transferir informações de um computador a outro. Na época, o meio mais usado para armazenamento externo de dados e transporte ainda eram os cartões perfurados, que armazenavam alguns poucos bytes de dados cada. Eles são uma das formas mais lentas, trabalhosas e demoradas de transportar grandes quantidades de informação que se pode imaginar.
De 1970 a 1973 foi criada a Arpanet, uma rede que interligava várias universidades e órgãos militares. Nesta época surgiu o e-mail e o FTP, recursos que utilizamos até hoje.
Ainda em 1973 foi feito o primeiro teste de transmissão de dados usando o padrão Ethernet, dentro do PARC (o laboratório de desenvolvimento da Xerox em Palo Alto). Por sinal, foi no PARC onde várias outras tecnologias importantes, incluindo a interface gráfica e o mouse, foram originalmente desenvolvidas.
O padrão Ethernet é utilizado pela maioria das tecnologias de rede local em uso, das placas mais baratas às redes wireless. O padrão Ethernet define a forma como os dados são organizados e transmitidos. É graças a ele que placas de diferentes fabricantes funcionam perfeitamente em conjunto.
Inicialmente, as redes Ethernet foram desenvolvidas para trabalhar usando cabos coaxiais, onde um micro é diretamente ligado ao outro. Os cabos são ligados a cada placa de rede usando um conector “T”, formando um único cabo contínuo:
Este tipo de cabo não é mais usado atualmente, dando lugar aos cabos de par trançado. Porém, graças às origens, as redes Ethernet utilizam até hoje uma topologia lógica de barramento: independentemente da forma como os micros estejam fisicamente interligados, eles se comportam como se estivessem todos ligados no mesmo cabo.
Quando uma estação precisa transmitir dados, ela irradia o sinal para toda a rede. Todas as demais estações ouvirão a transmissão, mas apenas a placa de rede que tiver o endereço indicado no pacote de dados lê a informação. As demais estações simplesmente ignoram a transmissão.
Aqui os pacotes são endereçados usando o endereço MAC de cada placa de rede, um endereço de 12 dígitos que vem gravado de fábrica na EPROM da própria placa. A menos que intencionalmente modificado, cada placa de rede possui um endereço MAC diferente. É como no dinheiro: duas notas só possuem o mesmo número de série se forem falsas.
Como apenas uma estação pode falar de cada vez, antes de transmitir dados a estação irá “ouvir” o cabo. Se perceber que nenhuma estação está transmitindo, enviará seu pacote, caso contrário, esperará até que o cabo esteja livre. Este processo é chamado de “Carrier Sense” ou “Sensor Mensageiro”.
Mas, quando duas estações ouvem o cabo ao mesmo tempo, ambas acabam percebendo que o cabo está livre e enviam seus pacotes simultaneamente. Temos então uma colisão de dados.
Dois pacotes sendo enviados ao mesmo tempo geram um sinal elétrico mais forte, que pode ser facilmente percebido pelas placas próximas. A primeira placa que perceber esta colisão irradiará para toda a rede um sinal especial de alta freqüência que cancelará todos os outros sinais que estejam trafegando através do cabo e alertará as demais placas que ocorreu uma colisão.
Sendo avisadas de que a colisão ocorreu, as duas placas “faladoras” esperarão um número aleatório de milessegundos antes de tentarem transmitir novamente. Este processo é chamado de TBEB (Truncated Binary Exponencial Backof). Inicialmente as placas escolherão entre 1 ou 2, se houver outra colisão escolherão entre 1 e 4, em seguida entre 1 e 8 milessegundos, sempre dobrando os números possíveis até que consigam transmitir os dados. Apesar de as placas poderem fazer até 16 tentativas antes de desistirem, normalmente os dados são transmitidos na segunda ou terceira tentativa.
Veja que, apesar de não causarem perda ou corrupção de dados, as colisões provocam uma grande perda de tempo, resultando na diminuição do desempenho da rede. Quanto maior for o número de estações, maior será a quantidade de colisões e menor será o desempenho da rede. Por isso existe o limite de 30 micros por segmento numa rede de cabo coaxial, e não é permitido ligar diretamente mais do que 7 hubs numa rede com cabos de par trançado.
Outro fator que contribui para as colisões é o comprimento do cabo. Quanto maior for o cabo (isso tanto para cabos de par trançado quanto coaxial), mais fraco chegará o sinal e será mais difícil para a placa de rede escutar o cabo antes de enviar seus pacotes, sendo maior a possibilidade de erro. Hoje em dia este problema não é tão significativo, pois utilizamos switchs ao invés de cabos coaxiais ou hubs burros, mas é interessante entender como as transmissões são realizadas.
Veja que todo este controle é feito via hardware pelas placas de rede Ethernet. Isso não tem nada a ver com o sistema operacional ou com os protocolos de rede usados.
O uso mais básico para as redes atualmente é compartilhar a conexão com a internet. Você tem apenas uma linha ADSL ou apenas uma assinatura do serviço de acesso via cabo e pode acessar, ao mesmo tempo, a partir de todos os micros que tiver em sua casa ou empresa. Neste caso um dos micros atua como um ponto de encontro, enviando os pedidos de todos para a internet e devolvendo as respostas.
Outra necessidade comum é compartilhar arquivos. Antigamente (naquela época em que os micros tinham 512 KB de memória e os homens eram homens e escreviam seus próprios sistemas operacionais ;), era usado o protocolo DPL/DPC (disquete pra lá, disquete pra cá), mas ele não era muito eficiente, principalmente quando o amigo que estava esperando os arquivos estava em outra cidade…
Hoje em dia usamos diversos tipos de placas de rede, switchs, roteadores e cabos para construir a parte física da rede e o protocolo TCP/IP para organizar a forma como os dados são transmitidos. O DPL/DPC ainda sobrevive, agora através de DVDs e pendrives e ainda é útil na hora de transportar grandes quantidades de dados.
A partir do momento em que passamos a usar mais de um micro, seja dentro de uma empresa, escritório, ou mesmo em casa, fatalmente surge a necessidade de transferir arquivos e programas, compartilhar a conexão com a internet e compartilhar periféricos de uso comum entre os micros. Certamente, comprar uma impressora, um modem e um gravador de DVD para cada micro e, ainda por cima, usar pendrives, ou mesmo DVDs gravados para trocar arquivos não é a maneira mais produtiva, nem a mais barata de se fazer isso.
A melhor solução na grande maioria dos casos é também a mais simples: ligar todos os micros em rede. Montar e manter uma rede funcionando tem se tornado cada vez mais fácil e barato. A maior parte das placas mãe hoje em dia vem com rede onboard. Os hub/switchs estão cada vez mais baratos, com os modelos mais simples custando menos de 100 reais, enquanto 10 metros de cabo de par trançado não custam mais do que 10 ou 15 reais.
Com a rede funcionando, você poderá compartilhar e transferir arquivos, compartilhar a conexão com a internet, assim como compartilhar impressoras, drives de DVD e outros periféricos, jogar games em rede, entre várias outras possibilidades.
Num grupo onde várias pessoas necessitem trabalhar nos mesmos arquivos (dentro de um escritório de arquitetura, por exemplo, onde normalmente várias pessoas trabalham no mesmo projeto), seria muito útil centralizar os arquivos em um só lugar, pois assim teríamos apenas uma versão do arquivo circulando pela rede e, ao abri-lo, os usuários estariam sempre trabalhando com a versão mais recente.
Centralizar e compartilhar arquivos permite também economizar espaço em disco, já que ao invés de termos uma cópia do arquivo em cada máquina, teríamos uma única cópia localizada no servidor de arquivos. Com todos os arquivos no mesmo local, manter um backup de tudo também torna-se muito mais simples.
Simplesmente ligar os micros em rede não significa que todos terão acesso a todos os arquivos de todos os micros. Apenas arquivos que tenham sido compartilhados poderão ser acessados. E se por acaso apenas algumas pessoas devam ter acesso, ou permissão para alterar o arquivo, basta estabelecer permissões de acesso, configurando exatamente o que cada usuário poderá fazer, como veremos ao estudar sobre a configuração de servidores Samba.
Além de arquivos individuais, é possível compartilhar pastas, ou mesmo uma partição inteira, sempre com o recurso de estabelecer senhas e permissões de acesso. Você saberia dizer quais dos micros no ambiente de redes da figura são máquinas Linux e qual é a máquina Windows? 🙂
Da mesma maneira que compartilhamos arquivos, podemos também compartilhar periféricos, permitindo a qualquer micro da rede imprimir na impressora ligada ao micro 2, ler um CD que está no drive do micro 4, ou mesmo compartilhar a mesma conexão à internet, estabelecida através do modem ADSL instalado no micro 7.
Como no caso dos arquivos, é possível estabelecer senhas e permissões de acesso para evitar, por exemplo, que a Maria do micro 5 use a impressora Laser para imprimir seus rascunhos, ao invés de usar a matricial.
Através da rede você pode até mesmo acessar seu micro remotamente, tendo acesso a todos os seus programas e arquivos, utilizando o VNC, SSH ou outro sistema de acesso remoto.
Mais um recurso que vem sendo cada vez mais utilizado são os jogos multiplayer, que podem ser jogados através da rede. A maior vantagem neste caso é que a comunicação permitida pela rede local é muito mais rápida que uma ligação via ADSL ou cabo, evitando atrasos nas transmissões (o famoso LAG), que tanto atrapalham quando jogamos os mesmos jogos via internet.
Uma rede local cabeada trabalha em condições normais com tempos de resposta abaixo de 10 milessegundos, enquanto na internet um ping de 100 ms já é considerado baixo. Imagine que com um ping de 200 ms, por exemplo, cada passo ou tiro que você dispara demora 1/5 de segundo para chegar até os outros jogadores. Para evitar que o jogo torne-se lento para todos, o servidor da partida atualiza a movimentação dos jogadores conforme vai recebendo informações, diminuindo o número de atualizações por segundo. Quanto mais alto o ping, mais precária fica a movimentação do seu personagem para os demais jogadores e deles para você.
Em geral, depois de configurada a rede, a configuração dentro do jogo é bastante simples, basta verificar quais protocolos de rede são suportados. Atualmente, a maioria dos jogos suporta multiplayer via TCP/IP. Não apenas os jogos, mas vários outros recursos, como o compartilhamento de conexão, só funcionarão com este protocolo. Apenas alguns jogos antigos como o Warcraft II exigem IPX/SPX, ou mesmo o uso de um cabo serial.
No Diablo II por exemplo, basta acessar a opção “Multiplayer Game”. Configure o PC mais rápido como host, ou seja, quem irá sediar o jogo e permitir a conexão dos outros PCs. Nos demais, basta escolher a opção de conectar-se ao host e fornecer seu (do host) endereço IP, configurado nas propriedades da conexão de rede, como por exemplo 192.168.0.1.
Este é provavelmente o uso mais comum para as redes hoje em dia. Antigamente se falava em uma proporção de 80/20 entre os dados que trafegam entre os micros da rede local e os dados que vão para a internet. Hoje em dia esta proporção é muito diferente, a maior parte dos dados vai para a internet.
Muita gente trabalha apenas usando o navegador e o cliente de e-mails, e cada vez mais as redes das empresas estão se integrando à web para permitir que clientes e os próprios funcionários tenham acesso às informações em qualquer lugar.
Hoje em dia é muito simples compartilhar a conexão com a internet, seja acessando via ADSL ou outra forma de acesso rápido, seja acessando via modem.
Esta é mais uma possibilidade interessante. Os PCs evoluíram muito rápido nas últimas décadas, gerando pilhas de equipamentos obsoletos, que ainda funcionam mas são lentos demais para rodar os aplicativos atuais.
Hoje em dia existem distribuições Linux como o Damn Small (http://www.damnsmalllinux.org/), que reúne em apenas 50 MB um conjunto de programas leves, apropriados para micros antigos, com a partir de 32 MB de RAM. Você pode navegar na web usando o Opera, usar o Sodipodi para enviar e receber e-mails e assim por diante, o suficiente para atender às necessidades de um usuário iniciante.
Claro que isto não vem de graça. A necessidade de criar um sistema espertano faz com que muitos programas populares fiquem de fora e torna o sistema um pouco mais complicado de instalar e utilizar.
Dar manutenção e instalar qualquer sistema operacional numa máquina antiga é mais complicado e demorado que numa atual. Em muitos casos, estas máquinas acabam sendo doadas a escolas e outras instituições, mas mesmo assim nem sempre são aproveitadas.
Ao invés de ter o trabalho de instalar o sistema e configurar cada micro individualmente e ainda assim ter que conviver com um sistema limitado e lento, é possível transformar micros a partir de 486 em terminais leves, onde um servidor mais rápido executa os aplicativos e envia apenas a imagem a ser mostrada na tela para os terminais. Isto é feito usando uma combinação de servidor de arquivos e servidor de acesso remoto, instalada através do LTSP.
Qualquer PC atual, como um Sempron ou Celeron com 512 MB de RAM, pode servir de 10 a 20 terminais. Um servidor mais robusto pode servir 40 terminais, ou até mais, dependendo dos aplicativos usados. Neste caso os aplicativos rodam com o desempenho máximo do servidor, fazendo com que cada estação rode o OpenOffice e o Firefox com praticamente o mesmo desempenho que teriam se fossem usadas máquinas novas.
Deixe seu comentário