Esta entrevista foi idéia do Bruno Wallace do http://www.infosquad.net. Ele enviou algumas perguntas, o Skankster postou a notícia no fórum e no final acabou saindo um bate papo com vários pontos interessantes. O texto é um pouco longo, talvez um dia ainda trate essa minha compulsão 😉 Boa leitura, espero que as respostas sejam úteis:
“Morimoto, de onde surgiu a idéia do GDH? Foi simplesmente um site pessoal que cresceu de tamanho e popularidade, ou surgiu já com essa idéia de ser um grande site de hardware, software e informática em geral?”
“Pelo nome, percebemos que o intuito inicial era mesmo o Hardware em si… mas eu, como freqüentador há pouco mais de um ano, vi uma evolução muito grande do setor de Software do site” (Skankster)
Na verdade o Guia do Hardware surgiu apenas como um meio de publicar o meu trabalho. Com o tempo as coisas foram se acumulando, mas nunca houve a intenção de fazer um “grande site” ou algo assim. A vantagem da Internet é que criar um site exige um investimento muito pequeno, basicamente apenas o tempo que você dedica a ele, isso permite começar um site pequeno e ir melhorando o conteúdo aos poucos. Com o tempo as visitas também aumentam 🙂
Na época em que criei o site eu escrevia principalmente sobre hardware, coisas básicas sobre os componentes, como montar micros, etc. daí surgiu o nome “Guia do Hardware”, mas o enfoque do site sempre foi bastante variado. Eu não consigo me concentrar muito tempo num mesmo tema e nem sou assim tão disciplinado. Vou escrevendo sobre os temas sobre os quais estou pesquisando. De alguns meses pra cá tenho estudado bastante sobre sofware livre, mas mais pra frente pode ser outra coisa.
“Quais suas perspectivas de utilização do Linux, tanto em computadores domésticos quanto em sistemas corporativos?”
“Você acredita realmente que o Linux pode vir um dia a se tornar uma boa opção para fins corporativos levando em conta que ainda temos poucos desenvolvedores para a plataforma?”
“Na questão de interface com usuário e segurança de dados e rede, o Linux pode vir a se tornar ponto de referência?” (Asolivei)
Quase 15% dos servidores vendidos atualmente vem com alguma versão do Linux pré-instalada, sem contar com os que são montados ou são vendidos sem sistema operacional e depois recebem uma cópia do Linux. Mais de 50% dos servidores Web rodam o Apache que é um software livre, mais de 60% dos sites de FTP rodam o Linux ou BSD e esta participação continua crescendo. Ou seja, embora não tenham tanto enfoque da mídia, os softwares livres já são uma realidade no mundo corporativo. Mesmo nos desktops o Linux deve passar o Mac que é uma plataforma muito mais antiga e até certo ponto conhecida em número de usuários dentro de mais alguns meses.
Mesmo assim, a principal força do Linux não está na quantidade de usuários, mas na qualidade dos desenvolvedores. As coisas estão acontecendo muito rápido. Você pode comprovar isso vendo a evolução de projetos como o KDE e o Gnome, que surgiram do zero por volta de 95/96 e já concorrem em recursos com a interface do Windows e do MacOS X.
Não podemos esquecer que a Microsoft está desenvolvendo o Windows a 22 anos, se incluirmos a fase embrionária do MS-DOS. Se colocarmos as duas linhas num gráfico veremos que uma está mais ou menos estável enquanto a outra continua subindo rápido. Em breve as duas vão se encontrar. Não concordo que existam poucos desenvolvedores, isto depende de onde você procurar.
“Intel ou AMD? Athlon 2700+ (333) ou P4 de 3000?” (Diego_uss)
Nenhum dos dois 🙂 Ambos são caros e consomem energia demais. O processador é um dos componentes menos importantes num PC atual. É ignorância (para dizer outra coisa), gastar quase 35% do valor do PC no processador e espetá-lo numa placa mãe de terceira linha, com 256 MB, um HD de 5400 RPM, um monitor de 15″ e não poder nem deixá-lo ligado durante à noite por causa do barulho. Em muitos casos ter um processador mais rápido é pior do que ter um simples. É como ter um carro 2.0.
Pesquise um pouco sobre as técnicas de fabricação dos processadores. Veja os pontos em que os fabricantes mudam de arquitetura, de 0.25 para 0,18, de 0.18 para 0.13 e futuramente de 0.13 para 0.09 mícron. Compre sempre os modelos de clock mais baixo dentro de cada arquitetura. Eles são baratos por terem um clock relativamente baixo, dissipam relativamente pouco calor e suportam grandes overclocks. Tivemos vários exemplos, como o Celeron 366 PPGA, o Celeron 600 Coppermine 128, o Athlon AXIA de 1.0 GHz e mais recentemente os Athlon e Pentium 4 de 0.13 mícron.
Estes modelos permitem que você dose o desempenho do micro, usando a frequência default (que em geral ja é mais do que suficiente para jogar Unreal 🙂 e fazendo um overclock quando for precisar de potência para compactar um Divx ou converter sua biblioteca de MP3 para Ogg.
Economize no processador e guarde para comprar uma placa mãe que funcione, um monitor de 17″ e um modem de verdade.
“Morimoto, o que você espera que aconteça a médio prazo com a Microsoft, que aparentemente está desesperada com o avanço do Linux, e até já anunciou que vai abrir o código-fonte do Windows para governos, exatamente os clientes que mais têm motivos para desconfiar de seus mecanismos de “monitoramento”? “(Romulo)
O Shared Source proposto pela Microsoft é uma grande armadilha, isto precisa ficar bastante claro. Em primeiro lugar, você não tem acesso a todo o código. Seu acesso cresce de acordo com a sua importância. Um reles usuário tem apenas acesso a algumas partes de versões antigas do Windows CE, um sistema de pouca importância. Apenas alguns parceiros escolhidos a dedo tem acesso a partes mais importantes do Windows, mas mesmo assim de forma muito limitada.
Antes de ver qualquer coisa você precisa assinar um contrato em que você se compromete a não divulgar nenhuma das informações que você está prestes a acessar, nem utiliza-las para desenvolver softwares concorrentes, sob pena de retaliações legais. Eles tem seus dados, sabem para que empresa você trabalha. Isto significa que se mais tarde você ou a sua empresa passarem a desenvolver software para uma área cobiçada pela Microsoft (o que não é difícil já que estão atacando em praticamente todas as frentes) eles podem e provavelmente vão usar o contrato contra você e será muito difícil e caro provar que o seu maravilhoso software não foi desenvolvido com base no código a que você teve acesso.
A Microsoft já eliminou muitos outros concorrentes com muito menos. No caso dos governos esta questão judicial é especialmente preocupante, já que coloca em risco a capacidade de desenvolvimento e inovação de um país.
Outro problema é que o código é disponibilizado via navegador, apenas para visualização. Isto impede que você utilize ferramentas de auditoria que precisam vasculhar todo o código, de uma só vez. Procurar erros a mão num bloco de 10 milhõe de linhas de código não é muito razoável.
No caso das pessoas importantes a autenticação é feita através de uma combinação de senha e um smart-cart e o código transmitido através de uma conexão segura. Mesmo no caso de você encontrar uma brecha de segurança ou outra falha qualquer o seu raio de ação se limita a reportar o problema e aguardar por uma solução como todo mundo e talvez ter que pagar pela atualização. Você não pode divulgar o problema e não pode corrigi-lo você mesmo.
O Shared source elimina ainda a principal vantagem do software livre que é a possibilidade de desenvolver soluções com base em código já existente, o que elimina qualquer possibilidade de geração de conhecimento e tecnologia. Você continua comendo salsicha enlatada.
O principal objetivo do Shared Source é fazer com que um grande número de desenvolvedores e empresas aceitem o contrato para que a Microsoft obtenha mais poder sobre a indústria.
“O que você espera de evolução no Linux para que ele consiga vencer o Windows até mesmo nos desktops? Acha válidas iniciativas como a da Redmond Linux Corp (Lycoris Desktop/LX) de fornecer um Linux com cara de Windows?” (Romulo)
A principal força do Linux no desktop é o fato de todos os principais programas estarem disponíveis gratuitamente. O grande problema para as empresas não é comprar o Windows em sí, que em quantidade custa pouco mais de 60 dólares, mas sim de comprar programas como o Office, Photoshop, Corel, SQL Server e assim por diante. No Linux tudo está disponível, você pode procurar na Web um programa qualquer e instalá-lo sem se preocupar com licenciamento.
Você pode até desenvolver o sistema da sua empresa com base em um software livre que já exista, tornando seus custos mais mais baixos. Também é um fato que uma rede baseada em Linux possui um custo de manutenção mais baixo pois além de muito mais estável não é tão susceptível a vírus e outros problemas de segurança que sugam tanto do tempo e dinheiro das empresas. A instalação do sistema também é muito mais simples, a maioria das distribuições podem ser instaladas em menos de meia hora num micro atual e existe a opção de usar um live-cd, que não precisa sequer ser instalado.
Uma crítica comum é que é difícil instalar programas no Linux mas no Debian você pode instalar quase 9.000 pacotes difentes usando um único comando, três palavrinhas: “apt-get install nome_do_programa”. Ele se encarrega de baixar o programa, instalá-lo e na maioria dos casos ainda criar um ícone no iniciar.
O Mandrake inplantou algo parecido nas últimas versões, o urpmi. Faltou apenas incluir uma lista de servidores atualizada, onde você possa ter acesso a mais programas como no Debian. No Red Hat temos o up2date, que mostra um aviso do lado do relógio quando estão disponíveis atualizações.
Na maioria das distribuições ainda falta a “última milha”, mas já existem as bases para o desenvolvimento de um diretório onde você possa ver uma descrição de cada programa disponível e simplesmente clicar para instalar o que quiser.
As distribuições comerciais são importantes neste sentido pois elas geralmente concentram seus esforços justamente na interface com o usuário, enquanto grandes projetos voluntários como o Debian são melhores em desenvolver a parte técnica. No final as duas coisas se juntam.
“Depois de descobrir o GdH, me animei a tentar novamente usar o Linux. Posso dizer que quem tem um micro com Linux em casa pode ter “vida quase normal”, graças aos grandes avanços das distribuições e do próprio kernel no sentido de facilitar a instalação, suporte à USB, etc., além do grande número de programas e drivers desenvolvidos pela comunidade Linux, e disponibilizados de graça na internet. Porém, deixar o micro “tinindo” ainda requer um certo esforço e pesquisa, o que pode ser legal para nós os “geeks”, porém para uma grande parte dos usuários comuns é praticamente impossível.
“Na sua opinião, para o Linux se firmar de vez como uma alternativa para desktops, faltam avanços no kernel ou nas distribuições. Quais seriam, digamos, as 3 principais barreiras hoje que retardam esse avanço?”(6ust4vo)
Eu acho que não falta muito. Na maioria dos casos o que torna a coisa difícil são uma série de detalhes e não grandes problemas estruturais. Estes problemas poderiam ser resolvidos se por exemplo as distribuições tivessem mais dinheiro para investir em testes ou se houvesse uma base de usuários maior para reportar estes problemas.
Outro ponto de tensão são os próprios fabricantes, que relutam em investir no desenvolvimento de drivers for Linux. Não é necessário liberar todas as especificações do produto para os concorrentes, um driver binário já pode funcionar muito bem se for feito de forma competente. Temos o caso da nVidia por exemplo que desenvolve drivers excelentes for Linux e faz um bom trabalho em mantê-los atualizados.
Isto vai acontecer naturalmente conforme a base de usuários crescer, em breve se o seu modem não for detectado você vai poder ir no site do fabricante, apontar a versão da sua distribuição e baixar um pacote que pode ser instalado simplesmente clicando sobre ele no gerenciador de arquivos e dando a senha de root.
Outro ponto em que existe muito a melhorar é na qualidade e variedade da documentação, principalmente documentação voltada para iniciantes. Não é fácil criar um monte de disquetes de boot para instalar o Windows 2000, não é fácil ficar procurando drivers pela Web, não é fácil sumir com o monte de spywares que acompanham grande parte dos programas, não é fácil conviver com os problemas de estabilidade e segurança do Windows. A lista poderia continuar por muitas linhas, mas a moral da história é que as pessoas conseguem conviver com tudo isso pois existe uma base de conhecimento muito grande em torno do Windows, quase sempre algum colega vai poder te ajudar.
No caso do Linux a maior parte da documentação é voltada para usuários avançados, muita coisa está terrivelmente desatualizada ou não está escrita numa linguagem clara, etc. mesmo assim as coisas estão melhorando, você pode notar pelo nível dos fóruns ligados ao Linux e em vários projetos de livros e tutoriais. Além das distribuições estarem ficando melhor acabadas a cada versão, o número de colegas que podem ajudar está crescendo.
“Você acredita que todo este processo em que estamos envolvidos, de expansão da informática, da Internet, da realidade virtual, inteligência artificial, da nanotecnologia, robótica etc., em proporções cavalares e de velocidade, historicamente, à jato, faz parte do início de um futuro sombrio onde o homem se torna criador daquilo que será sua própria ruína?”(FVV)
Na maioria dos casos a tecnologia está ajudando a melhorar a qualidade de vida. Se compararmos as condições de vida a 500 anos, 200 anos, 100 anos e nos dias de hoje veremos uma curva ascendente. Mesmo os povos mais pobres quase sempre estão vivendo melhor hoje.
O grande problema é que o ser humano é invejoso por natureza. Você não se importa em ser pobre se todos os outros também forem. A questão é que mesmo que a qualidade de vida melhore de uma forma geral, as desigualdades fazem com que muita gente fique insatisfeita.
Conforme as coisas avançam, começa a ficar cada vez mais fácil e barato desenvolver armas perigosas. Daqui a algumas décadas será possível desenvolver vírus perigosos usando computadores domésticos. Dentro de mais algumas serão bombas atômicas. Ou seja, se não caminharmos para uma sociedade mais evoluída eventualmente algum revoltado vai ter os meios necessários para destrir tudo.
“A AMD está para lançar 2 processadores novos de 64 bits, um para servidores e outra para desktops e a Intel vai lançar um para servidores, você acha que, essa moda de processadores de 64 bits vai pegar para desktops ou vai ficar mais para os servidores, e outra coisa, o processador da AMD vai poder ser usado com os atuais aplicativos de 32 bits ou novas versões para 64 bits e o da Intel só com versões especiais para ela, qual você acha que vai se dar melhor?”
Os processadores de 64 bits são uma evolução necessária por causa do acesso à grandes quantidades de memória e geração de chaves de criptografia mais sofisticadas, só para citar dois pontos. Provavelmente ainda vai demorar mais alguns anos para eles virarem padrão mas eventualmente a mudança vai acontecer. Um processador de 64 bits não é mais caro de se produzir, as mudanças se limitam ao conjunto de instruções e mudanças nas unidades de execução e pre-fetch. Estes componentes respondem por uma pequena parte dos transístores do processador, a maior parte é consumida pelo cache.
A grande incógnita é sobre qual arquitetura vai sobreviver. A AMD vai dominar num primeiro momento, pois o Hammer mantém compatibilidade com os aplicativos de 32 e 16 bits e até permite roda-los lado a lado com os irmãos de 64. Existe um pequeno ganho nos aplicativos de 32 bits graças ao controlador de memória integrado e mais um pouco nos aplicativos de 64 bits. O ganho não é nada absurdo, mas como disse é uma transição necessária pois existem coisas que não é possível fazer num processador de 32 bits. Tente endereçar mais de 4 GB de memória RAM por exemplo: é possível mas não sem uma grande perda de desempenho.
A Intel também tem uma tecnologia para manter a compatibilidade com aplicativos de 32 bits, o Yanhill que comentei em algumas matérias antigas do site. Creio que eventualmente eles acabarão lançando alguns processadores com ela.
Existe espaço ainda para um terceiro fabricante, talvez a Via que ainda está patinando com o C3 mas pode acertar nos próximos produtos. Veja que a Via está investindo no ramo de processadores de baixo-custo que sempre são os mais vendidos. Eles podem aparecer com um processador barato, que seja razoavelmente rápido e consiga dominar uma grande parte do mercado, como os K6-2 fizeram a alguns anos atrás.
“O que é pior para um grande monopolista de software? Ser alvo maciço de pirataria mas tendo controle e domínio da linguagem utilizada e conhecida pelos consumidores (imposição velada) ou ver um concorrente bom e barato ganhar espaço?” (marciocampos)
Sem dúvidas ter o domínio do mercado sempre é melhor. No caso da pirataria existe uma grande proteção legal contra isso, eles podem te deixar usar software pirata enquanto isso for cômodo e mandar um grupo de fiscais bater na sua porta quando eles já tiverem quase 100% do mercado e resolverem ganhar dinheiro. Você não terá escolha, ou paga o que eles querem ou fecham sua empresa e te levam preso. Se isso começar a afugentar alguns consumidores, basta dar uma trégua temporária e volvar a mandar os MiBs depois de algum tempo.
O mais interessante é que o código de defesa do consumidor especifica que o cunsumidor está certo até que a empresa prove o contrário. No caso dos softwares vale o contrário, você é que tem que provar que não é ladrão. O fabricante não precisa sequer se responsabilizar por danos causados pelo software, basta colocar uma cláusula no contrato. Eles podem até mesmo exigir permissão para vasculhar seus arquivos, instalar softwares sem sua autorização e até mesmo deletar arquivos “ilegais” do seu HD em troca das atualizações de segurança. Claro, você não pode reclamar, seus direitos acabaram quando você clicou no “aceito” sem ler o contrato.
Não creio que estes abusos sejam sustentáveis por muito tempo a partir do momento em que surgem opções.
“O governo a pouco tempo cortou impostos diminuindo em média 13% o preço dos computadores de marca com a intenção de diminuir o “mercado cinza” que é o mercado de computadores montados por técnicos que representa mais da metade dos computadores vendidos no brasil atualmente, pergunta: com a atual gama de configurações que podem ser compradas no mercado de computadores de marca, vc acha que o “mercado cinza” vai diminuir mesmo? pois até hoje eu nunca ví um computador de marca que desse para jogar, 100% de todos que eu ví são para trabalho de escritório como digitação de textos, internet, etc…” (augustohideki123)
Eu não acho que seja vantajoso comprar micros de grife. Pelo contrário, além de serem mais caros eles oferecem configurações pouco flexíveis e muitas vezes com hardware de baixa qualidade. No caso de alguns servidores com circuitos redundantes e outros diferenciais pode ser até aceitável, mas nos casos dos desktops é desperdício de dinheiro.
Os micros de grife foram importantes na época em que era difícil montar um PC. Outro dia coloquei no site o link de uma menina de 13 anos, aluna numa escola que faz parte do projeto K12LTSP montando um micro em menos de dois minutos. Não creio que dois minutos de trabalho seja um “valor agregado” muito importante.
Usuários leigos vão continuar comprando micros em Supermercado e instalando os CDs de “ganhe dois zilhões de horas grátis” que vão junto, mas existem cada vez mais usuários instruídos e usuários instruídos montam seus próprios PCs, muitas vezes também os da empresa e dos amigos (embora às vezes cobrando uma pequena taxa 🙂
Independente do imposto de importação, o “imposto” dos atravessadores será sempre maior. Mesmo nos EUA e Europa os micros de grife estão perdendo espaço a cada ano para os montados em casa ou vendidos por pequenos integradores. Os grandes fabricantes terão que se concentrar em vender serviços ou desenvolver diferenciais para seus produtos para conseguirem se sustentar neste mercado.
“Com o novo governo, a possibilidade de uso em larga escala do Linux e software livre em geral torna-se possível como ocorre no Rio Grande do Sul e agora aqui em São Paulo. Isso poderá diminuir ou até eliminar os altos índices de exclusão digital da população? O mercado de desenvolvedores e centros de excelência em softwares poderão ser ativados/aquecidos caso isto aconteça? O que você espera disso?” (AndersonTS)
Eu não sei até que ponto vai o poder de ação do governo quanto ao ponto da exclusão digital. Eu moro em São Paulo, conheço muita gente e até hoje não vi ninguém que esteja se beneficiando de um dos Telecentros. Estes projetos ganham um grande espaço na mídia, mas tem uma abrangência muito limitada.
Eu acho que a questão da inclusão digital pode ser combatida naturalmente com o barateamento dos equipamentos e principalmente difusão da informação. O Governo pode gastar 2500 reais por micro numa sala de informática mas ela é inútil sem pessoas qualificadas e realmente dispostas a realizar um bom trabalho.
As pessoas são o link mais importante pois equipamentos usados são baratos hoje em dia e podem ser usados para desenvolver soluções muito eficazes. No próprio Guia do Hardware você pode encontrar algumas idéias que podem ser desenvolvidas, como os terminais leves por exemplo.
Mesmo assim, as salas ajudam até um certo ponto, pois os alunos não tem acesso completo aos micros, não podem instalar programas, alterar configurações, fuçar, testar coisas, que é a parte mais interessante da história 😉 O ideal é que as pessoas possam ter micros em casa. Isso não é tão difícil assim, 10 milhões de computadores, suficiente para digitalizar toda a camada da população que ainda não tem computador, mas tem acesso a uma linha de telefone custariam quanto? Uns US$ 4 bilhões talvez. Quando mesmo aquele Juiz famoso roubou?
Um bom começo poderia ser distribuir CDs bootáveis no estilo Knoppix com um conjunto bem escolhido de aplicativos que possam ser usados em qualquer computador. Isso permitiria que os alunos pudessem usar os mesmos programas da escola na casa dos amigos ou qualquer outro lugar sem alterar os dados que estão no computador. As preferências podem ser salvas em disquetes (o Knoppix tem um utilitário pronto que faz isso), geralmente usuários novos não tem muitos arquivos para guardar.
Bem, várias idéias podem florecer daí, mas naturalmente isso passa pelo uso de software livre. Os alunos precisam ter acesso aos softwares, poder instalar em casa o que usam na escola, fazer cópias e das para os colegas. Precisam de ferramentas de programação que estejam disponíveis e possam ser usadas sem limitações e precisam de um grande conjunto de aplicativos, não apenas do Office.
A flexibilidade oferecida pelo Linux é um grande estímulo à inovação. Isto significa treinar uma safra de programadores e vários outros profissionais de alto nível. O acesso aos componentes e ao próprio código fonte dos programas é uma arma formidável para despertar o interesse dos alunos.
Veja que nem entramos ainda na questão do custo…
“Morimoto, a respeito da criação de um orgão para regulamentar nossa profissão, eu sou Formado em Análise de Sistemas mas trabalho com informática desde 1990, o problema é que como todos devem saber existem muitos “picaretas” que se dizem técnicos e na verdade não são nada, o que vc acha da criação de uma entidade, tipo CREA ou OAB que regulamente nossa profissão, não que necessáriamente todos tenham que ter curso superior e tal, mas que para conseguir ser regulamentado faça uma prova e comprove que seus conhecimentos são suficientes para que possa trabalhar na área.” (lfranco)
Acho que os picaretas existem em todas as áreas, independente de terem diploma ou não. Eu não acredito que seria positivo tentar regulamentar a área de informática, até por que ela é tão vasta que isso seria quase impossível. Existem várias certificações para várias áreas e muitas empresas as exigem, muitas vezes criando seus próprios sistemas de seleção técnica. Creio que isso já seja suficiente.
Um exame nacional serviria apenas para gerar burocracia, ineficiencia e corrupção, como em outras áreas. Outro problema é que um exame teórico privilegia justamente os maus profissionais, o exame rapidamente ficaria defasado (como as matérias dos cursos de tantas universidades…) fazendo com que passar seja mais uma questão de quem tem mais tempo ocioso para ficar decorando apostilas e gabaritos de testes anteriores.
Pelo que eu vejo os “picaretas” são uma exigência do próprio mercado. Sim, isso mesmo. Um bom profissional precisa estudar durante muito tempo, fazer cursos, comprar livros e isso exige dedicação e uma certa dose de recursos. Naturalmente um bom profissional não é barato, custa pelo menos 50, 70 reais por hora de trabalho, bem mais nas áreas mais especializadas.
Nem todo mundo está disposto a pagar por isso, o que abre espaço para os “picaretas” que cobram só 10 reais para “dar uma olhada”. É isso, na verdade existe uma mercado para profissionais baratos, de baixa qualificação. Ele está sendo preenchido.
“Gostaria de saber, na sua opinião, se os Chipsets integrados são uma boa, taís como o Nforce. Ou se uma placa dedicada ainda é melhor ou não? E o que vc espera que aconteca no futuro?” (/GLMoreira/)
Eu escrevi um artigo sobre isso a algum tempo atrás, o artigo 205 do site se não me engano. Bom, resumindo, os componentes integrados se tornarão cada vez mais comuns devido à pressão pelo barateamento dos componentes e avanço da tecnologia. Conforme os transístores ficam menores existe espaço para integrar cada vez mais componentes dentro de cada chip e isso permite reduzir muito os custos.
Outro ponto importante é que com o aumento da frequência fica cada vez mais difícil desenvolver barramentos rápidos e de baixa latência que permitam a comunicação ente os componentes sem causar perda de desempenho. É o caso do controlador de memória por exemplo: a AMD resolveu incluir um controlador de memória no Hammer justamente para diminuir a latência do acesso à memória e melhorar o desempenho.
O caminho é desenvolver placas mãe cada vez menores, com mais e mais componentes integrados. Daqui a algum tempo elas virão com processadores e chips de memória por 50 ou 70 dólares e ninguém vai se preocupar muito com os upgrades, pois será mais prático e barato trocar a placa inteira.
As placas off-board vão continuar fortes apenas no mercado de alto desempenho, o grupo que paga caro para ter com antecedência o desempenho que estará disponível depois de um ou dois anos para os pobres mortais, donos de PCs integrados.
A questão nesse caso não é tanto o desempenho; é óbvio que uma placa de 400 dólares como a GeForce FX (bem, quando ela sair… 🙂 vai ser sempre muito mais rápida que o simplório vídeo onboard de uma placa com o i845G ou mesmo que o de uma nForce. O problema é o custo, se o vídeo onboard for suficiente para rodar os jogos da moda com um mínimo de qualidade, a maioria dos usuários ficarão com o vídeo onboard e os fabricantes lançarão cada vez mais produtos para este mercado crescente.
“Recentemente, o mundo da informação acompanhou o lançamento mundial do revolucionário Sistema Operacional MAC OS X.22 “The Jaguar” , baseado no UNIX BSD, utilizado na arquitetura PPC, mais precisamente em máquinas Apple. Algum tempo depois, houve um brusco e repentino rompimento de um antigo acordo comercial entre a Apple e a Microsoft, e foi firmado um novo acordo entre a Apple e a AMD, fabricante dos famosos K6 e K7 (até eu tenho um). Logo após essa parceria haver sido firmada, a comunidade de Macmaníacos foi assolada por uma série de boatos mencionando o fato de o MAC OS X estar sendo rodado em PC’s com processadores AMD, sob um codinome secreto que não me recordo agora, segundo o mundo Mac, apenas para debugar o sistema.”
“A pergunta é: Vc acredita na possibilidade de, em um futuro próximo, a Apple de Jobs partir para cima do Microsoft Windows e até mesmo do próprio Linux com o seu sistema operacional nos PC’s, assim como o Linux fez com o “Yellow Dog Linux” nos PPC’s? Ou isso tudo não passam de especulações e paranóia por parte de Macmaníacos e Linuxers?” (Dobbermanfx)
Até pouco tempo atrás seria impossível para a Apple pensar em qualquer tipo de investida no mercado de PCs pois ela tinha um nível muito grande de dependência da Microsoft por causa do IE e do Explorer. Com o MacOS X a situação começou a melhorar, suítes alternativas com o OpenOffice foram portadas e agora a Apple está desenvolvendo seu próprio browser, usando código do Konqueror.
O OS X é um sistema Unix, baseado no código do BSD que mantém suporte aos padrões. Aplicativos Linux/BSD podem ser portados para ele com uma relativa facilidade e um número expressivo de aplicativos podem ser compilados e rodar diretamente.
A moral da história é que o MacOS X é um Unix para desktops, um primo comercial do Linux. Ele se beneficia diretamente dos avanços na área do software livre.
Mesmo assim, não creio que a Apple possa lançar um sistema operacional para PCs num futuro próximo. Podem chegar a adotar o Hammer na sua própxima linha de máquinas como já foi cogitado, mas sem dúvida dariam algum jeito de fazer o OS X continuar rodando apenas sobre seus próprios equipamentos. A venda de hardware é uma fonte importante de renda para a Apple, lançar um sistema operacional para PCs prejudicaria muito este mercado e exigiria investimentos muito grandes no desenvolvimento de drivers, certificação de hardware, etc.
Estas chegaram depois de escrever a entrevista original:
“Vi no site que você está desenvolvendo uma distribuição Linux, o Kurumin. Você não acha que já existem distribuições demais? Não entendi também o por que de fazer um sistema tão pequeno, não seria melhor incluir mais programas, fazer um pacote mais completo? Quais são seus planos pra ele?” (Ricado C. Mello)
Na verdade a idéia do Kurumin não é desenvolver uma distribuição de uso geral. Já existem pelo menos 8 grandes distribuições e pelo menos mais umas 50 distribuições de segunda grandeza. Não creio que exista espaço para mais grandes distribuições como o Mandrake ou o Conectiva.
O Kurumin entra na categoria de distribuição especializada, as estrelas de segunda grandeza que complementam as principais. A idéia é oferecer um sistema fácil de usar, que possa ser usado em todo tipo de CD bootável e possa ser personalizado com mais programas mesmo por quem não tem conhecimentos muito aprofundados de Linux.
Imagine que você tenha um site e você resolve vender um CD com algumas matérias do site e um conjunto de programas. Não seria interessante que este CD também fosse bootável, para que pudesse ser usado também como um disco de recuperação?
Uma revista poderia incluir o sistema no CD-ROM, substituindo o autorum. Ao invés de ter que instalar coisas no Windows, você poderia rodar os programas do CD diretamente através do Kurumin, sem alterar nada no seu disco rígido.
Existem inúmeras outras aplicações. Uma loja pode usá-lo em kiosques para oferecer acesso à web para as crianças que esperam as mães fazerem comprar, ou mesmo oferecer algum sistema de consulta de preços e informações sobre os produtos baseado numa página Web. Com o Kurumin fica muito mais fácil e barato, pois o sistema roda direto do CD, não pega vírus, não precisa ser reinstalado. Você não precisa se preocupar com o que as crianças estão fazendo no Kiosque, qualquer problema é só reiniciar.
Uma loja que vende micros usados, daquele tipo que vem sem sistema operacional e com três meses de garantia poderia fornecer o CD do Kurumin junto com os micros para mostrar que eles estão funcionando e permitir que o cliente possa usar o micro mesmo antes de ter tempo de instalar o sistema operacional definitivo.
É fácil personalizar o CD do Kurumin. Dentro do CD você vai encontrar um arquivo index.html e uma imagem chamada background.gif. Estes arquivos são respectivamente a página Web que é aberta no final do boot e o papel de parede do KDE. Copie todos os arquivos do CD para uma pasta, substitua os arquivos pelo que quiser, adicione mais páginas, programas ou o que mais quiser para preencher os 515 MB livres do CD e grave de novo. O único cuidado é acionar a opção de usar uma imagem de boot no programa de gravação e apontar os arquivos boot.img e boot.cat que estão dentro da pasta KNOPPIX no CD. Pronto, você tem seu próprio CD bootável personalizado.
Estou escrevendo também um tutorial ensinando passo a passo como remasterizar o CD, incluindo mais programas e alterando as configurações. Qualquer um vai poder desenvolver sua própria mini-distribuição usando o Kurumin como base. Outro motivo de mantê-lo pequeno é que isto torna mais fácil mantê-lo atualizado, algo que eu possa fazer no tempo livre. O tamanho reduzido também permite que você possa grava-lo em mini-cds, o que ajuda na portabilidade e dá um certo efeito na hora de apresentar o sistema para alguém. Imagine você conversando sobre “o tal do Linux” com o seu chefe e sacando o cedêzinho do bolso pra uma pequena demonstração… 😉
É possível fazer tudo isso usando o Knoppix naturalmente, o Kurumin apenas facilita as coisas, pois é menor e já vem em Português. Ele é feito de modo que os usuários tenham facilidade em usar e os técnicos facilidade em alterar e personalizar.
Este e-mail que recebi ontem ilustra bem o espírito do projeto:
Ola…Consegui fazer rodar o som e a rede no Kurumim. Eu precisava desabilitar o plug and play na Bios.
A internet via rede ( directnet.com.br) agora funciona legal e EXTREMAMENTE rapido aqui em casa.Agora estou bastante contente com o Linux. Ja instalei de tudo mas todos eram muito lerdos e eu nao tinha saco de ficar recompilando Kernel, nem aprendi isso ainda!
Gosto muito do Mandrake, mas devido meu HD estar ficando muito apertado, resolvi mexer com Linux so quando trocasse o HD por um de uns 40 gigas. Mas, graças ao seu Kurumim agora posso navegar com o Linux e fuçar um pouco, rodando do CD-Rom.
Já instalei Suse, Redhat, Conectiva, Mandrake, Caldera, Slackware, Debian, Demolinux 3.0 e o mais rapido deles o Peanut. E o Kurumim ganhou em desempenho de todos estes que mencionei!
Para o usuario domestico que só quer o sistema pra navegar / ler emails , voce acertou em cheio!!!
um abraço : – )
Antonio Marcos Chiavelli
“Olá Morimotto, gostaria de saber qual a sua opinião a respeito da recente formação do consórcio denominado “United Linux”, integrado por Conectiva e Suse entre outros? Que benefícios vc acredita que esta nova parceria trará a comunidade Linux mundial? Vc concorda com o ponto de vista da Red Hat e Mandrake Software que ficaram de fora? Obrigado pela atenção.” (Dobbermanfx)
Existem vários tipos de usuários linux. Temos os técnicos que desenvolvem soluções, temos os usuários que simplesmente buscam uma alternativa ao Windows, temos pequenas empresas buscando redução de custos, etc. Para todas estas classes o United Linux não acrescenta nem retira nada, simplesmente por que o United Linux está sendo desenvolvido para uma categoria bem mais específica de usuários: as médias e grandes empresas que buscam soluções Linux preocupadas mais com os recursos do que com o preço e estão dispostas a pagar por uma solução bem empacotada, que tenha o apoio da indústria e um bom suporte. Lembre-se que embora o código fonte esteja disponível, respeitando os termos da GPL, você não encontrará os ISOs para download, apenas as caixas.
O United Linux não vem para substituir ou concorrer com distribuições para desktop como o Mandrake, mas para servir como uma alternativa para os grandes servidores e estações de trabalho. É uma solução voltada para um mercado específico, onde as distribuições pretendem obter um melhor retorno financeiro.
O fato das quatro empresas se justarem visa reduzir os custos de desenvolvimento e obter mais apoio da indústria. O United Linux é uma plataforma comum, sobre a qual as quatro empresas podem desenvolver seus produtos.
A Mandrake tem um enfase maior nos desktops, creio que por isso tenha recusado a proposta de ser a quinta integrante do consórcio. A Red Hat também não faz parte pois é na verdade o grande alvo do consórcio em primeiro lugar.
Qual sua opinião sobre o polêmico Lindows? União do útil (interface amigável a usuários “dummies”) ao agradável (estabilidade de um SO Unix like), ou a prostituição do Linux como o conhecemos hoje?
Eu não vejo nada de errado como Lindows é apenas uma idéia que foi colocada em prática. Vejamos, o Lindows consiste num conjunto relativamente pequeno de programas, algo parecido com o que temos numa instalação default do Windows. Esta’e uma antiga reinvindicação de muitos usuários que se confundem com o excesso de aplicativos das grandes distribuições.
Justamente por ser pequeno, a instalação do Lindows é muito rápida, coisa de 10 minutos. Outra reinvindicação de parte dos usuários que foi atendida. No Lindows não existe preocupação com a segurança, o que facilita o uso do sistema, você fica permanentemente logado como root e consequentemente tem acesso a todo o sistema. Veja que grande parte dos usuários não se preocupam com segurança, o principal motivo de tanta gente usar o Windows em primeiro lugar.
Finalmente, temos a questão da instalação de novos programas. Você simplesmente abre um catálogo com descrições e screenshots de programas e pode instalar o que quiser simplesmente clicando nos links. O sistema baixa os programas desejados e os instala automaticamente. É algo parecido com o apt-get do Debian, na verdade é baseado no apt-get, a grande diferença é que os usuários tem a chance de ver as descrições dos programas e simplesmente clicar ao invés de terem que conhecer os nomes para dar um “apt-get install gimp” ou “apt-get install gftp”. Isso acaba fazendo uma grande diferença.
Enfim, tudo o que fizeram foi ouvir as reinvidicações dos usuários mais leigos e criar um sistema que pode ser vendido diretamente no varejo. A Microtel parece ter feito um bom negócio, pois vendeu quase 5 mil máquinas com o Lindows apenas no WallMart, durante o mês de Dezembro em troca de simbólicos 500 dólares mensais pelo uso do sistema em um número ilimitado de máquinas.
Eu vejo o Lindows como uma idéia positiva. Serve pelo menos para mostrar que é possível desenvolver distribuições Linux mais fáceis de usar, voltadas para os usuários que estão na base da pirâmide.
Quais são seus planos para o Guia do Hardware nos próximos anos?
Nada de especial. Acho que o grande motivo do site ter sobrevivido durante estes quatro anos é justamente eu não ficar fazendo muitos planos para o futuro. Como disse aí e cima, eu não tenho intenção de fazer um “grande site” ou qualquer coisa do gênero. Sempre que eu tenho algo a dizer eu escrevo uma matéria e a coloco no ar. Quem achar interessante é bem vindo para visitar a página e ler. Se você sentir falta de alguma coisa pode me mandar um mail com a sua sugestão. Não se esqueça de fazer uma busca, pois tem bastante coisa escondida por aqui 😉
Melhor Browser?: Phoenix 🙂 Mantém os pontos fortes do Mozilla mas é muito mais rápido. Além das versões Linux e Windows estão desenvolvendo também para o Os X.
Melhor editor html?: Antes usava o Quanta, agora estou no Bluefish. É um grande orgulho ver que as páginas do site podem ser abertas em qualquer navegador sem problemas. Faça seu teste: Opera, Links, Lynx, Dillo, Mozilla, IE, Netscape, Phoenix…
Melhor distribuição Linux para desktops?: Mandrake, sem dúvidas. É fácil de usar sem esconder os recursos mais avançados. Serve pra todas as classes de usuários.
Melhor distribuição para servidores?: Debian, pela facilidade em manter o sistema atualizado e a rapidez com que as brechas de segurança são corrigidas.
Melhor processador?: Eu acho o projeto do C3 bem interessante pelo baixo consumo elétrico. Embora o desempenho não seja lá grande coisa, ele faz muito mais por ampere consumido do que o Pentium 4 ou o Athlon. Com o passar do tempo o desempenho do processador será um fator cada vez menos importante, a Via está seguindo o caminho certo ao oferecer um processador barato e que consome pouca energia.
Melhor placa de vídeo?: Aqui a coisa fica difícil. A ATI está ganhando fácil do ponto de vista do Hardware, mesmo com a GeForce FX será muito difícil para a nVidia conseguir acompanhar. Porém, a nVidia ainda tem drivers melhores, sobretudo para Linux, o que nivela as coisas.
Deixe seu comentário