Guias

Os guias são a “nata” do conteúdo do site: os melhores textos organizados na forma de guias de estudo, que se destinam a esgotar um determinado assunto. Cada guia é uma espécie de curso sobre um tema específico.

Veja também nossos livros impressos.

Uma pequena introdução ao desenvolvimento de jogos de computador

O desenvolvimento de jogos é dividido em inúmeras etapas e setores que o pretendente a entrar nesta jornada deve conhecer e ver com qual se identifica. Quando iniciei meu contato com os jogos, isso na década de 80, tudo era mais simples na metodologia de se criar um jogo. Um criador de jogos com boa vontade poderia construir um jogo completo em poucos dias, mas conforme os anos foram passando, mais e mais elaborados eles se tornaram, e ficou impraticável o desenvolvimento como naquela época, mas não impossível.

Veremos nesta breve introdução algumas das áreas envolvidas no processo de criação de um jogo, desde a idéia a sua comercialização. Meu nome é Marcio Esper, desenvolvedor desde o inicio da década de 90 para diversas plataformas, e serei o seu guia nesta maravilhosa jornada tentando colocar de forma fácil e simples os caminhos para se criar um jogo de computador.

Guia do VirtualBox

Apesar da grande variedade de aplicativos disponíveis no Linux, sempre existem situações em que você precisa de algum aplicativo específico, ou precisa usar algum dispositivo que tem drivers apenas para Windows.

A solução mais comum para o problema é simplesmente manter uma instalação do Windows em dual-boot e usá-lo quando necessário. O grande problema com essa abordagem é que ela é bastante imprática, já que você precisa fechar todos os programas e reiniciar o micro cada vez que precisa usar alguma coisa no Windows.

Guia de segurança no Linux e no Windows (Atualizado) Parte 2

A questão da segurança tem se tornado cada vez mais importante à medida que a Internet torna-se um ambiente cada vez mais hostil e as ferramentas para capturar tráfego, quebrar sistemas de encriptação, capturar senhas e explorar vulnerabilidades diversas tornam-se cada vez mais sofisticadas. Você poderia perguntar porque alguém teria interesse em invadir máquinas de usuários domésticos, que não possuem arquivos valiosos, ou mesmo estações de trabalho que são usadas apenas para editar textos e enviar e-mails. A questão principal não é o que está armazenado do HD, mas sim a banda e o poder de processamento das máquinas.
Ter vários PCs sob seu controle, principalmente se eles possuírem conexões de alta velocidade, significa poder. É possível usá-los para alimentar redes P2P como o Kazaa e outros, fundar uma rede de distribuição de warez ou moviez, usá-los como servidores complementares para um site pornô, enviar spam, usá-los para rodar portscans e lançar ataques contra outras máquinas ou até mesmo usá-los em um ataque coordenado para tirar um grande portal do ar.

Redes Wireless

Nos últimos anos as redes wireless caíram de preço e se tornaram extremamente populares. Configurar uma rede wireless envolve mais passos do que uma rede cabeada e um número muito maior de escolhas, incluindo o tipo de antenas e o sistema de encriptação a utilizar, sem falar no grande volume de opções para otimizar a conexão presentes na interface de administração do ponto de acesso. Este guia concentra tudo o que você precisa saber para se tornar um expert no assunto, incluindo desde noções básicas sobre pontos de acesso, placas e antenas, até detalhes avançados sobre como criar links wireless de longa distância, incluindo dicas sobre a legislação. Entre os dois estremos, você aprenderá sobre os padrões wireless, do 802.11b ao 802.11n, detalhes sobre a configuração de pontos de acesso, configuração de redes wireless no Linux e no Windows, redes ad-hoc, segurança e outros temas.

A História da Informática

Estudar sobre a história da informática permite entender melhor como os PCs atuais funcionam, já que uma coisa é consequência da outra. Do ENIAC, construído em 1945, até os processadores modernos, tivemos um longo caminho. Este guia resume a história da informática, das válvulas e relês até o 368 passando pelos computadores das décadas de 50, 60 e 70, os primeiros computadores pessoais, o surgimento dos PCs, a história dos sistemas operacionais, curiosidades e a concorrência entre o Mac e o PC.

Guia do Overclock

A frequência de operação dos processadores não é fixa, mas sim definida pela combinação da frequência do barramento e de um multiplicador. Assim como um atleta, que pode correr mais rápido ou mais devagar, o clock do processador pode ser também ajustado para mais ou para menos, de acordo com a necessidade. Você pode obter mais desempenho aumentando a frequência até o máximo suportado por ele (overclock), indo muitas vezes 40 ou até 60% além da frequência padrão, ou, caso desejado, reduzir a frequência (underclock), fazendo com que o processador aqueça menos e consuma menos energia.

A motivação óbvia é extrair mais desempenho do processador sem precisar pagar mais por isso, o que é sempre uma boa notícia em épocas de crise. Normalmente, mesmo os piores processadores para overclock podem oferecer um ganho adicional de 8 ou 10% e alguns processadores específicos podem oferecer 50% ou mais.

Montagem e manutenção de micros e configuração do setup

Antigamente, montar seu próprio PC era uma boa forma de economizar, gastando 10 ou até 20% menos do que pagaria em um PC montado de configuração similar. Entretanto, com a queda dos preços e o enorme crescimento das vendas no varejo, os preços caíram muito. Hoje em dia, montar um micro sai muitas vezes mais caro do que simplesmente comprar um PC no supermercado, principalmente nas configurações mais básicas.

Entretanto, se compararmos os preços em relação aos que a Dell oferece, por exemplo, a balança volta a tender em favor dos PCs montados. O motivo é simples: para vender PCs baratos, é preciso usar componentes baratos. Ao comprar um PC de R$ 799, você quase sempre leva o que paga, com uma fonte genérica, uma placa-mãe de segunda linha e assim por diante.

Em resumo, montar um PC é ainda um bom negócio se você sabe o que está fazendo e quer um PC com componentes de boa qualidade, sem falar na liberdade de reforçar qualquer componente que faça a diferença para você (armazenamento, desempenho 3D, memória, processamento, etc.) sem pagar muito mais caro por isso.

Tudo sobre os HDs, flash e armazenamento

O disco rígido foi um dos componentes que mais evoluiu na história da informática. O primeiro disco rígido (o IBM 350) foi construído em 1956 e era formado por um conjunto de nada menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 4.36 MB (5 milhões de caracteres, com 7 bits cada um), algo espantoso para a época. Comparado com os discos atuais, este pioneiro custava uma verdadeira fortuna: 35 mil dólares. Entretanto, os preços caíram rapidamente nas décadas seguintes, o que permitiu que os HDs crescessem em popularidade nos sistemas corporativos e em seguida também no mercado doméstico.

Placas-mãe e barramentos

Nos guias anteriores estudamos sobre o desenvolvimento dos processadores e chipsets, indo do 486 aos chips atuais. Naturalmente, o processador não é o único componente (e possivelmente nem mesmo o mais importante) em um PC atual, já que ele trabalha em conjunto com a GPU, o HD ou SSD, módulos de memória e outros componentes. No meio de tudo isso, temos a placa-mãe, que não é apenas o hardware que agrupa mais interfaces e componentes, mas também o que mais influencia a estabilidade e as possibilidades de expansão do sistema.

No início, as placas-mãe serviam simplesmente como uma interface entre os demais componentes, uma placa de circuito sem vida própria. Com o passar do tempo, mais e mais componentes passaram a ser integrados à placa-mãe, dando origem às placas atuais, que incluem vídeo, som, rede e outros periféricos onboard. Com a introdução dos processadores da linha Core i5 e i3 (que incorporaram a ponte norte do chipset e o chipset de vídeo integrado), a placa-mãe perdeu parte de seu prestígio, mas apesar de tudo ainda continua sendo importante.

Memória RAM

Embora seja brutalmente mais rápida que o HD e outros periféricos, a memória RAM continua sendo muito mais lenta que o processador. O uso de caches diminui a perda de desempenho, reduzindo o número de acessos à memória; mas, quando o processador não encontra a informação que procura nos caches, precisa recorrer a um doloroso acesso à memória principal, que em um processador atual pode resultar em uma espera de mais de 150 ciclos.

Para reduzir a diferença (ou pelo menos tentar impedir que ela aumente ainda mais), os fabricantes de memória passaram a desenvolver um conjunto de novas tecnologias, a fim de otimizar o acesso aos dados, dando origem aos módulos de memória DDR2 e DDR3 utilizados atualmente.

Processadores, a era moderna

Embora muitas vezes seja difícil definir o que é “atual” e o que é “antigo” no ramo da informática (afinal, muitas tecnologias “ultrapassadas” como os slots PCI e as portas USB 2.0 continuam sendo largamente usadas), podemos traçar uma linha divisória clara entre os processadores atuais e as gerações anteriores com o lançamento da plataforma K10 da AMD (que deu origem ao Phenom e ao Phenom II) e da plataforma Core i7/i5/i3 no caso da Intel.

Em ambos os casos, tivemos uma quebra de paradigma em relação aos processadores anteriores, que levaram ao surgimento das plataformas atuais. Vamos a eles.

Processadores, a era dos 64 bits (revolução industrial)

Depois de estudarmos um pouco sobre a história da informática e passarmos pelos processadores de 2000 a 2005, chegamos finalmente à era moderna, que foi inaugurada pelo Athlon 64, o primeiro processador x86 de 64 bits.

Antes do Athlon 64, a Intel vinha tentando empurrar o IA64, um novo conjunto de instruções de 64 bits, que era usado no Itanium. A diferença fundamental entre o IA64 e o x86-64 (usado no Athlon 64) é que o IA64 era incompatível com o conjunto anterior (todos os softwares precisam ser reescritos), enquanto o x86-64 é uma atualização mais suave, que permite usar tanto sistemas operacionais e softwares de 32 bits, quanto sistemas e softwares de 64 bits.

Depois de uma rápida batalha, o padrão da AMD prevaleceu, e é graças a isso que podemos escolher entre usar as versões de 32 bits e 64 bits do Windows ou de diversas distribuições Linux nos processadores atuais, sem nos preocuparmos com a questão da compatibilidade.

Processadores, da pré-história ao Pentium 4

Dentro do mundo PC, tudo começou com o 8088, lançado pela Intel em 1979 e usado no primeiro PC, lançado pela IBM em 1981. Depois veio o 286, lançado em 1982, e o 386, lançado em 1985. O 386 pode ser considerado o primeiro processador moderno, pois foi o primeiro a incluir o conjunto de instruções básico, usado até os dias de hoje. O 486 foi lançado em 1989, mas ainda era comum encontrar micros com ele à venda até por volta de 1997.

Depois entramos na era atual, inaugurada pelo Pentium, que foi lançado em 1993, mas demorou alguns anos para se popularizar e substituir os 486. Em 1997, veio o Pentium II, que usava um encaixe diferente e por isso era incompatível com as placas-mãe antigas. A AMD soube aproveitar a oportunidade, desenvolvendo o K6-2, um chip com uma arquitetura similar ao Pentium II, mas que era compatível com as placas soquete 7 antigas. A partir daí as coisas passaram a acontecer mais rápido. Em 1999 foi lançado o Pentium III, em 2000 o Pentium 4 e em 2006 o Core 2 Duo, que foi seguido pelos Phenom e Core i7.

Este guia mostra todos os detalhes dessa longa jornada, da pré-história ao Pentium 4.

Fontes de alimentação e dispositivos de proteção

Construir uma fonte de alimentação é relativamente simples (muito mais do que produzir um processador ou uma GPU, por exemplo) e a tecnologia é bem conhecida e bem documentada. O grande problema é que fontes de qualidade são caras de se construir, o que obriga os fabricantes a fazerem opções com relação à capacidade e à qualidade dos componentes usados, ao mesmo tempo em que tentam diferenciar seus produtos dos oferecidos pelos concorrentes.

Isso faz com que as fontes sejam a classe de periféricos onde mais existe variação de qualidade e de preço. De um lado, temos fontes genéricas de 30 reais e do outro fontes de alta capacidade que podem custar quase 1000 reais. Como sempre, as melhores opções estão entre os dois extremos, mas nem sempre é fácil encontrá-las.

Windows no Linux: VirtualBox, VMware e Wine

Apesar da enorme variedade de aplicativos disponíveis no Linux, sempre existem situações em que você precisa de algum aplicativo específico, ou precisa usar algum dispositivo que tem drivers apenas para Windows. A solução mais comum para o problema é simplesmente manter uma instalação do Windows em dual-boot e usá-lo quando necessário. O grande problema com essa abordagem é que ela é bastante imprática, já que você precisa fechar todos os programas e reiniciar o micro cada vez que precisa usar alguma coisa no Windows.

Outra opção, cada vez mais comum hoje em dia, é usar o Windows dentro de uma máquina virtual. Essa é a opção mais prática para quem precisa executar apenas alguns aplicativos específicos, ou precisa do Windows apenas para testes (como um administrador de redes, que precisa testar todas os recursos da rede tanto no Linux quanto no Windows, ou um desenvolvedor web que precisa testar a visualização das páginas no Explorer) já que você pode rodar o Windows dentro de uma janela, sem precisar reiniciar o micro.

Mas enquanto o VMware e outros softwares de virtualização criam um ambiente virtual, que permite executar uma cópia do Windows e rodar os programas sobre ela, o Wine usa uma abordagem mais direta: simplesmente rodar os programas diretamente. Isso é enfatizado pelo próprio nome do projeto, onde o Wine é abreviação de “Wine is not an emulator”, ou seja, “o Wine não é um emulador”.

Guia do Fedora

O Red Hat Desktop foi uma das primeiras distribuições Linux e foi também a mais usada até 2003, quando a Red Hat pegou todos de surpresa, anunciando que descontinuaria o sistema, concentrando os esforços no Red Hat Enterprise (o braço comercial da distribuição, destinado ao uso em empresas) e nos programas de suporte e certificação que eram (e continuam sendo) os grandes responsáveis pelo faturamento da empresa.

A descontinuidade do Red Hat Desktop levantou sérias dúvidas sobre a própria viabilidade do uso de Linux em desktops, mas elas foram rapidamente dirimidas com o anúncio do Fedora, que assumiu o posto de legítimo herdeiro do Red Hat Desktop, passando a ser desenvolvido por uma comunidade, com o apoio e contribuições dos desenvolvedores da Red Hat. A ideia inicial do Fedora foi a de diminuir o custo de desenvolvimento da distribuição para a Red Hat e, ao mesmo tempo, incentivar contribuições da comunidade, fazendo com que o projeto pudesse crescer.

Debian em desktops

Embora o Debian “puro” seja mais usado em servidores, ele também pode perfeitamente ser usado em desktops. Se você se sente confortável em usar o apt-get/aptitude e gosta da estrutura geral do sistema, mas está em busca de um sistema mais leve e personalizável, o Debian pode ser a melhor opção. O Debian é a base para o Ubuntu e inúmeras outras distribuições. O próprio repositório “universe” do Ubuntu nada mais é do que um snapshot do repositório instável do Debian, com alguns patches e personalizações adicionais.

Se somarmos o Ubuntu, Kubuntu e todos os descendentes diretos e indiretos, as distribuições da família Debian são usadas em mais de 70% dos desktops Linux. O maior problema em utilizar o Debian diretamente, em vez de usar o Ubuntu ou outro derivado, é que o sistema é bastante espartano, carecendo de muitas ferramentas de configuração automática. Em compensação, ele é bem mais leve do que o Ubuntu, pois muitos pacotes são compilados com menos componentes e opções mais otimizadas, o que resulta em um desempenho geral sensivelmente superior, sobretudo nas máquinas mais modestas.

Guia do OpenSUSE

A SuSE foi fundada em 1992, como uma empresa de consultoria especializada em Linux, que oferecia uma versão do Slackware traduzida para o alemão, além de suporte e serviços de personalização. Grande parte do trabalho dos primeiros anos se concentrou no desenvolvimento de um conjunto de ferramentas de configuração, que deram origem ao YaST (Yet another Setup Tool), cujas primeiras versões foram lançadas em 1994. Desde então, o YaST se tornou o principal diferencial da distribuição: um painel de controle central, bastante poderoso, que permite administrar o sistema de forma relativamente simples.

O principal destaque do OpenSUSE é a boa combinação de facilidade de uso e recursos. Em vez de remover recursos do sistema com o objetivo de reduzir o volume de escolhas e assim tornar o sistema mais simples de usar, os desenvolvedores optam por manter todos os recursos disponíveis e organizá-los através de opções do YaST e nos menus. Com isso, chegaram a uma distribuição com uma excelente apresentação visual e relativamente simples de usar, que, ao mesmo tempo, oferece um volume muito grande de opções avançadas.

Aplicativos Linux

Os aplicativos acabam sempre sendo os componentes mais importantes de qualquer sistema operacional. Por mais que as distribuições mudem com relação às ferramentas de configuração e à apresentação geral, você quase sempre tem disponível o mesmo conjunto básico de aplicativos, que podem ser instalados usando o gerenciador de pacotes.

Uma característica importante entre os aplicativos Linux é a marcante divisão entre os aplicativos do KDE e do GNOME, muitas vezes com dois aplicativos muito similares entre as duas famílias. Como de praxe, você pode escolher entre tentar se limitar aos aplicativos de uma das famílias, com o objetivo de manter seu desktop “consistente”, ou pode simplesmente misturá-los conforme a necessidade, evitando apenas os que fiquem muito lentos fora do ambiente default.

Mandriva Linux e o KDE 4

O Mandriva Linux (que surgiu a partir da fusão entre a MandrakeSoft e a Conectiva) é uma das distribuições Linux mais fáceis de usar, desenvolvida com foco no usuário doméstico. O Mandriva foi uma das primeiras distribuições a incluir um instalador gráfico e ferramentas de configuração fáceis de usar, ainda na época em que o Linux estava restrito ao público técnico.

Ele é distribuído em três versões. O Mandriva One é um live-CD, que pode ser também instalado no HD, de maneira muito similar ao Ubuntu Desktop. Em seguida, temos o Mandriva Free (versão que abordo aqui) que corresponde à versão tradicional, onde você dá boot e faz a instalação através do DrakX, o instalador usado desde os tempos do Mandrake. A grande vantagem é que ela inclui um volume muito maior de pacotes (um DVD cheio) e permite que você defina quais componentes quer instalar. Temos ainda o Mandriva Powerpack, uma versão comercial que se diferencia do Mandriva Free por incluir alguns drivers e aplicativos proprietários, que não fazem parte do Mandriva Free por não serem open-source. Na verdade, estes componentes podem ser instalados no Mandriva Free através de repositórios adicionais; o fato de eles não serem incluídos nas mídias de instalação é apenas uma forma que a Mandriva encontrou para estimular o uso da versão paga.

Dominando o Slackware

À primeira vista, o Slackware parece ser um sistema extremamente complicado. Ele é uma das poucas distribuições Linux que ainda não possui instalador gráfico e toda a configuração do sistema é feita manualmente, com a ajuda de alguns poucos scripts simples de configuração. Entretanto, o Slackware oferece uma estrutura de arquivos de configuração e de pacotes muito mais simples que outras distribuições, o que o torna ideal para entender mais profundamente como o sistema funciona.

Se as distribuições fossem carros, o Slackware seria o Fusca. Ele não possui nenhum dos confortos encontrados em outros carros atuais, mas, em compensação, possui uma mecânica extremamente simples, o que também o torna fácil de modificar e de consertar. É justamente por isso que o Slackware possui tantos fãs, apesar da idade avançada. Ele é complicado na superfície, porém simples e confiável no interior.

Entendendo o Linux

Uma das grandes dificuldades em começar a estudar sobre Linux é descobrir por onde começar. São tantas informações e tantos componentes diferentes que o sistema acaba parecendo ser uma caixa-preta, indecifrável. O fato de existirem tantas distribuições Linux e tantas versões diferentes do sistema, permite que o Linux seja usado nas mais diversas áreas, de um PC doméstico a um supercomputador. O grande problema é que com tanta variedade, até mesmo os mais experientes acabam se sentindo perdidos, o que dizer então dos novos usuários. Muitos acabam então se limitando a usar uma única distribuição e a dominar seus recursos na medida do possível, enquanto outros preferem simplesmente continuar no Windows, onde as coisas parecem mais simples. Este guia explica como o sistema funciona de maneira simples e generalista, o que permite que você aplique as informações a qualquer distribuição.

Guia do Ubuntu

O Ubuntu não é a distribuição mais estável, nem a mais fácil de usar. Entretanto, a grande disponibilidade dos CDs de instalação e toda a estrutura de suporte criada em torno da distribuição, acabaram fazendo com que ele se tornasse uma espécie de “default”, uma escolha segura, que a maioria acaba testando antes de experimentar outras distribuições.

Ele é, sob diversos pontos de vista, o oposto exato do Slackware. No Slack, a principal dificuldade é entender como o sistema funciona, conseguir configurá-lo e instalar os aplicativos que quer usar. O Ubuntu, por outro lado, segue uma lógica completamente diferente, tomando decisões por você sempre que possível, mostrando apenas as opções mais comuns e escondendo a complexidade do sistema. Isso faz com que ele seja usado por um volume muito maior de usuários, uma vez que oferece respostas para dificuldades comuns, como instalar o sistema, configurar a rede wireless, acessar arquivos em uma câmera ou em um pendrive, e assim por diante.

Programando em Shell Script

Praticamente tudo no Linux pode ser automatizado através de shell scripts. É possível criar desde utilitários simples, que baixam arquivos, fazem backup ou instalam programas, até aplicativos complexos em tempo recorde. Escrever programas em shell script é muito mais rápido do que escrever em qualquer outra linguagem, permitindo desenvolver aplicativos em minutos.

Aprender shell script é um pré-requisito para qualquer usuário avançado ou bom administrador de redes, além de ser a porta de entrada para outras linguagens. O melhor de tudo é que você pode treinar em qualquer distribuição Linux, mesmo ao rodar o sistema a partir do CD.

Este é mais um guia longo e detalhado, que aborda em detalhes o desenvolvimento de scripts, do básico ao avançado, com destalhe para o desenvolvimento de scripts gráficos, usando o kdialog e o kommander; uma área pouco explorada em outros tutoriais.

Computação gráfica com software livre

Hoje parece trivial visualizar letras, figuras e animações nas telas de computador, mas para que a coisa chegasse até aqui foram necessários os esforços de muitos seres humanos através de idéias e trabalhos científicos.
Para um bom profissional, a ferramenta é importante, mas não é tudo – principalmente na área da computação gráfica onde a criatividade conta e muito. Ser criativo não é necessariamente só ser bom de desenho, mas também ser corajoso. No fundo toda criação gráfica é uma viagem, uma curtição, é um pirar na batatinha como dizem os programadores.
Este guia aborda desde a edição simples de imagens com o gThumb, até a avançada com o GIMP, passando também pela criação vetorial com o Inkscape e finalmente modelagem 3D com o Blender juntamente com outros softwares – todos de código-fonte aberto. Afinal, quem disse que você precisa colocar a mão no bolso para produzir gráficos de qualidade?

Guia dos Netbooks

Com tantos modelos, preços e tamanhos diferentes, a própria distinção entre os netbooks e os notebooks está se tornando menos clara. Em resumo, os netbooks se diferenciam dos notebooks por serem baseados no Atom ou outro processador de baixo consumo (e baixo desempenho), serem mais baratos (no exterior, a faixa de preço da maioria dos netbooks fica entre US$ 300 e US$ 500, enquanto os notebooks começam a partir daí) e serem mais compactos, com telas de 9″ ou 10″ e teclados um pouco menores que o tamanho padrão. Nesse guia, você conhecerá mais sobre a plataforma, componentes e modelos, inclindo a evolução dos processadores móveis e uma descrição dos netbooks disponíveis no mercado, do Eee ao Vaio P-series.

Distribuições Linux

Hoje em dia existem mais de 500 distribuições Linux, já contanto apenas as distribuições ativas. Apesar disso, 98% delas são personalizações de outras distribuições já existentes, de forma que, se você começar a estudar um pouco sobre a árvore genealógica das distribuições, vai perceber que existem menos de 10 distribuições principais (Debian, Red Hat/Fedora, Mandriva, Ubuntu, Slackware, Gentoo, etc.) das quais todas as outras são derivadas.
Por mais diferente que seja a aparência e a escolha de softwares pré-instalados, as distribuições derivadas mantêm muitas das características da distribuição-mãe, de forma que se você consegue aprender a trabalhar com as distribuições principais, passa a não ter grandes problemas ao trabalhar com qualquer uma das distribuições derivadas delas.
Este guia aborda o uso e a configuração das principais distribuições Linux, servindo como um “mapa da mina” para o uso do sistema.

3G e acesso móvel no Linux

As conexões móveis estão se tornando as sucessoras do acesso discado, no sentido de que estão disponíveis em praticamente qualquer lugar, atendendo até mesmo as áreas mais afastadas, onde outras modalidades de conexões não estão disponíveis, além de fazerem a alegria de quem precisa de uma conexão contínua em qualquer lugar para trabalhar ou manter contato com os amigos.
Embora existam muitas arestas a aparar, as conexões via 3G são bem suportadas no Linux, muito embora a configuração nem sempre seja tão simples quando poderia. Este guia mostra como configurar as diferentes opções de serviços e aparelhos no Linux.

Configurando o Samba

O Samba é o servidor que permite compartilhar arquivos e acessar compartilhamentos em máquinas Windows, um dos serviços mais utilizados em servidores Linux de rede local. Ele é dividido em dois módulos, o servidor Samba propriamente dito e o “smbclient”, o cliente que permite acessar compartilhamentos em outras máquinas. Usando o Samba, o servidor Linux se comporta exatamente da mesma forma que uma máquina Windows, compartilhando arquivos e impressoras e executando outras funções, como autenticação de usuários. Você pode configurar o Samba até mesmo para tornar-se um controlador de domínio. Este é um guia “mais que completo” sobre o Samba, mostrando todas (ou pelo menos quase todas 🙂 as opções de configuração.

Smartphones

Foi-se o tempo em que os celulares eram usados “só para falar”. Conforme foram evoluindo, os celulares passaram a incorporar as funções de cada vez mais dispositivos, tornando-se progressivamente mais importantes.
Com tantas funções, a escolha do smartphone ideal tem se tornado cada vez mais difícil, já que você não está escolhendo apenas um gadget, mas sim vários deles simultaneamente. É muito fácil errar na dose e pecar pelo excesso, gastando muito mais do que seria necessário, ou pela falta, comprando um aparelho limitado ou imprático de usar.

GPS em smartphones

Os aparelhos de GPS são provavelmente a classe de aparelhos eletrônicos que mais cresceu de 2006 pra cá. Além dos navegadores pessoais, smartphones com receptores GPS integrados são cada vez mais comuns, sem falar na possibilidade de usar um receptor externo, via Bluetooth. Este guia reúne informações sobre como o sistema funciona, com destaque para o uso do GPS em smartphones.

Cabeamento de Redes

Muitas vezes, temos a impressão de que, ao contrário de outras áreas da informática, as redes são um assunto mais constante, onde pouca coisa muda. Entretanto, essa impressão não poderia estar mais longe da realidade. A cada dia, novas tecnologias e novos padrões são criados e novas áreas de conhecimento são adicionadas. Os próprios padrões de rede evoluem constantemente para se adaptarem às novas necessidades. Este guia aborda o cabeamento e a configuração de redes, incluindo detalhes sobre os tipos de cabos, crimpagem, cabeamento estruturado, TCP/IP, configuração da rede, compartilhamento da conexão e outros detalhes, do básico ao avançado (atualizado).

Placas-mãe, barramentos, chipsets e configuração do Setup

A placa-mãe não é apenas o componente mais importante do PC, mas também o que concentra o maior número de componentes. Pela enorme quantidade de chips, trilhas, capacitores e encaixes, a placa-mãe também é o componente que, de uma forma geral, mais dá defeitos, perdendo (possivelmente) apenas para os HDs. O principal componente da placa-mãe é o chipset, que é o principal responsável pelos recursos disponíveis, barramentos suportados e pela maior parte dos componentes onboard, mas, além dele, temos uma infinidade de outros componentes, incluindo chips controladores menores, reguladores de tensão, capacitores, resistores e o próprio PCB da placa. Comandando tudo isso temos o BIOS, que é, por sua vez, configurado através do Setup. Este guia reúne tudo o que você precisa para entender como tudo isso funciona.

Placas 3D e monitores

Hoje em dia, mesmo as placas onboard mais simples oferecem um desempenho 3D superior ao de placas dedicadas de apenas alguns anos atrás, enquanto as placas 3D offboard chegam a possuir mais desempenho e mais memória que um PC completo. Como bem sabemos, existe uma brutal diferença de recursos, desempenho e preço entre as diferentes opções de placas 3D. Se você tem dúvidas com relação a recursos como o FSAA, Anisotropic Filtering, SLI, CrossFire, HyperMemory, TurboCache, V-Sync e outros, dúvidas sobre os doferentes padrões de conectores de vídeo e sobre a diferenças técnicas entre monitores LCD, Placas, CRT e OLED, este guia é para você.

Processadores

Estudar sobre os processadores é ao mesmo tempo interessante e cansativo. Interessante por que o processador é o componente mais complexo e onde são utilizadas as tecnologias mais avançadas e cansativo pois existem muitos processadores e muitas arquiteturas diferentes, de forma que você acaba precisando pesquisar em muitas fontes diferentes até atender tudo.
Este guia inclui o maior conjunto de informações sobre processadores que você vai encontrar em um único local, com informações relevantes, organizadas de forma prática. Ele mantém a parte interessante e elimina a parte cansativa, ideal para quem não tem tempo a perder.

Guia dos Notebooks

Antigamente, ter um notebook era um luxo reservado apenas aos que realmente precisavam de portabilidade e podiam gastar o triplo ou o quádruplo do valor que pagariam por um desktop de configuração equivalente.Felizmente, este tempo já passou e hoje em dia os notebooks mais populares custam apenas um pouco mais do que um desktop equivalente, com monitor de LCD e nobreak. Em alguns casos, promoções e condições de parcelamento podem fazer com que o note chegue até a custar mais barato.
Embora os notebooks atuais ainda continuem perdendo em certas áreas, como no caso do desempenho do HD e da placa de vídeo, na maioria dos demais quesitos as coisas já estão equilibradas e a portabilidade somada ao “cool factor” dos notebooks acabam superando suas desvantagens e fazendo com que cada vez mais gente acabe optando por um.
Este guia é dedicado a eles, incluindo as diferenças entre os processadores e outros componentes em relação aos usados em desktops. Se você trabalha na área, ou se pretende comprar um notebook em breve, esta é uma leitura obrigatória.

Guia de Acesso Remoto (SSH, NX Server, VNC e WTS)

Hoje em dia, quase tudo pode ser feito remotamente, principalmente no Linux. Muita gente acha que o SSH serve apenas para rodar comandos remotamente, mas seus recursos vão muito além, permitindo executar aplicativos gráficos, transferir arquivos, criar túneis seguros (uma espécie de VPN temporária), encapsular outros protocolos entre outros recursos. Temos ainda o NX Server (também baseado no SSH), que permite abrir um desktop remotamente, com uma excelente velocidade, mesmo em conexões via modem e até o vovô VNC, que continua muito usado. Tanto o SSH quanto o NX Server e o VNC podem ser usados também a partir de máquinas Windows, mas ele possui um protocolo de administração remota nativo, o WTS (Windows Terminal Services) que também é muito usado.
Este guia fala sobre as várias opções de acesso remoto disponíveis e te ensina como usar ao máximo os recursos de cada ferramenta, tanto no Linux, quanto no Windows.

Terminais leves com o LTSP 4.2

O LTSP, Linux Terminal Server Project, é uma solução mais usada para a criação de terminais leves com o Linux. Ele utiliza uma combinação de DHCP, TFTP, NFS e XDMCP para permitir que as estações não apenas rodem aplicativos instados no servidor, mas realmente dêem boot via rede, baixando todos os softwares de que precisam diretamente do servidor. Não é preciso ter HD nem CD-ROM nas estações, apenas um disquete (ou CD) de boot ou ainda um chip de boot espetado na placa de rede.

Compartilhando a conexão e configurando o Squid

Um dos usos mais comuns e mais simples para um servidor Linux é simplesmente compartilhar a conexão com a internet. A vantagem de usar um servidor dedicado ao invés de simplesmente compartilhar usando o próprio modem ADSL é que você pode incluir outros serviços, como um cache de páginas (Squid), filtro de conteúdo (DansGuardian), firewall, servidor Samba (compartilhando arquivos com a rede interna), servidor de impressão (usando o próprio Cups) e assim por diante.

A História da Informática

Estudar sobre a história da informática permite entender melhor como os PCs atuais funcionam, já que uma coisa é consequência da outra. Do ENIAC, construído em 1945, até os processadores modernos, tivemos um longo caminho. Este guia resume a história da informática, das válvulas e relês até o Athlon, lançado em 1999, passando pelos computadores das décadas de 50, 60 e 70, os primeiros computadores pessoais e a era dos processadores modernos, que começou com o 386, falando também sobre os softwares usados, curiosidades e a concorrência entre o Mac e o PC.

Usando o terminal

No início, todos os sistemas operacionais usavam apenas interfaces de modo texto. Antes do Windows, existiu o DOS e, antes do KDE, Gnome e todas as outras interfaces que temos atualmente, o Linux tinha também apenas uma interface de modo texto. A diferença é que no Linux a interface de modo texto evoluiu junto com o restante do sistema e se integrou de uma forma bastante consistente com os aplicativos gráficos. Quanto mais você aprende, mais tempo você acaba passando no terminal; não por masoquismo, mas porque ele é realmente mais prático para fazer muitas coisas.

Hardware, Redes e Linux para iniciantes

Este é um guia “tudo em um” que contém todos os fundamentos sobre Hardware, Redes, Linux e também dicas sobre linguagens de programação, voltado para quem está começando. Ele tem o objetivo de ser aprofundado sem ser chato e foi escrito com um cuidado especial com a didática e exatidão das informações. Este é sem dúvidas o melhor guia para iniciantes disponível em Português e um dos melhores mesmo internacionalmente.

Kurumin, opções de boot e instalação

Embora a instalação do Kurumin seja quase sempre muito simples, existem várias opções de boot e dicas que permitem solucionar muitos problemas, além de lhe permitirem personalizar melhor a configuração do sistema. O próprio instalador inclui algumas opções “escondidas” que embora úteis, acabam sendo pouco usadas, sem falar na parte de particionamento e instalação em dual boot com o windows e outras distribuições. Este guia fala sobre tudo isso, uma referência completa e atualizada para acabar com suas dúvidas.

Kurumin, configurando e solucionando problemas

Colocar o CD no drive e dar boot qualquer um faz, mas é quando os problemas começam a aparecer é que os usuários Linux tarimbados se destacam sobre os meros mortais 🙂 Este guia fala sobre a configuração do Kurumin, tratando desde as opções mais básicas dentro da configuração do KDE, até como solucionar problemas mais cabeludos com a configuração da placa de som, teclado, mouse, placas wireless e outros dispositivos. Além de ser um guia definitivo sobre a configuração do Kurumin, escrito pelo próprio desenvolvedor do sistema, muitas das dicas se aplicam também a outras distribuições.

Modems e placas Wireless no Linux

Por precisarem de drivers adicionais, tanto modems quanto placas wireless podem causar fortes dores de cabeça no Linux. Este é um guia técnico, que explica cada um dos drivers disponíveis, e dá instruções detalhadas de como instalá-los, incluindo os compiladores, headers e outros componentes necessários. Você encontrará também dicas de configuração da rede wireless, como ajustar a potência da antena e outros parâmetros. Ele foi escrito de forma genérica, de forma que seja aplicável a qualquer distribuição.

Vídeo no Linux: nVidia, ATI e placas de TV

Este guia é dedicado a falar sobre a configuração da placa de vídeo no Linux. Ele começa explicando como configurar manualmente o arquivo /etc/X11/xorg.conf, solucionando problemas relacionados à taxa de atualização do monitor, cores, driver ou tipo de mouse usado, prossegue mostrando em detalhes como instalar os drivers Linux da ATI e nVidia e solucionar problemas relacionados a ele e termina falando sobre como configurar placas de TV e gravar programas. Como nos outros guias, as informações são escritas de forma genérica, sem se prender a uma distribuição específica.

X