N0625
Super Zumbi
Registrado
7.1K Mensagens
785 Curtidas
Cada configuração é particular. Mesmo se houverem 10 PCs usando a mesma configuração, haverá disparidades de desempenho, mesmo que seja com 1 ou 2 segundos de diferença. Outra coisa: me parece que a organização do EXT4 é um pouco mais otimizada que o NTFS. Em acesso a disco, novamente o EXT4 leva um pouco de vantagem. Outra coisa que influencia no boot do Windows é que ele faz checagem de erros no Registro, fazendo cópias do mesmo, além de examinar todo o Registro a cada boot. Os Windows NT leêm muito mais arquivos durante o boot que o Linux. Por isso que acho a comparação de desempenho de acesso a disco, gerenciamento de memória e de processos entre Windows e Linux um pouco injusta, pois o Windows sempre perderá.
Agora quer mesmo fazer uma cronometragem justa? Usando máquinas virtuais, eu faria da seguinte forma:
* Uma máquina relativamente recente, de preferência com CPU dual-core e com bastante memória para evitar mascaramento dos resultados.
* Dois HDs vazios, formatados no mesmo FS do sistema hospedeiro (estou excluindo aí o HD do sistema). De preferência, HDs novos ou sabidamente bons e da mesma idade, funcionando a todo vapor nas suas interfaces - ex.: HD SATA 300 em porta SATA 300.
* A criação de duas máquinas virtuais, digamos com 30 GB de espaço em "disco". Uma máquina será para Windows e outra para Linux. Cada máquina instalada em um HD diferente. Por isso que citei dois HDs além do HD do sistema, pois cada máquina estará armazenada na parte mais rápida dos discos, que é a borda. Por fim, configuramos o "HD" das máquinas virtuais para usar um arquivos de 30 GB brutos, através da alocação de espaço fixo ao invés de alocação dinâmica.
* 1 GB de RAM para cada máquina virtual e também a disponibilização de um core para cada uma.
* Instalação de cada sistema em sua respectiva máquina.
* Instalação dos drivers guest.
* Atualização dos sistemas instalados.
* Instalação dos programas em cada máquina para comparação (no caso do Linux não será necessário caso se mensure a inicialização de programas como OpenOffice, Gimp, etc).
* Desligamento das máquinas virtuais e também do sistema host.
Pronto! Os sistemas das máquinas virtuais estarão usando o mesmíssimo hardware. Totalmente em iguais condições. Agora ligue o sistema host, em seguida as máquinas virtuais, primeiro com testes individuais (primeiro em uma, um reboot do host e, em seguida, a outra), depois com as duas máquinas ativas simultâneamente. Espere cerca de um minuto após a inicialização total das máquinas virtuais. Faça as medições e tire as conclusões. Pode fazer as medições posteriormente ativando o segundo core para cada máquina.
rubensk8
Geek
Registrado
2.4K Mensagens
111 Curtidas
A minha resposta foi mais motivada pelo amigo carq que disse:
"pessoal e se comparar o windows 7 com o yoper ou gentoo ?
acho que seria uma comparação mais proxima"
Ele usou o que é de mais rápido para comparar com Windows 7 e eu quis mostrar que não precisa ser um super linux para ser mais rápido que um win7.
A configuração do meu notebook HP Pavillion dv5-1220br: Turion X2 64 , HD 160 GB, RAM 2,0 GB, wireless e bluetooth.
Ele tá com o windows 7 64 bits e o Ubuntu 9.10 32 bits. Era para ser uma vantagem para o Windows, mas aqui ele perde em desempenho para o Ubuntu 9.10.
Estão na mesma configuração. Os dois tem o mesmo tempo de uso.
TerraSkilll
Zumbi
Moderador
4.1K Mensagens
1.2K Curtidas
H4RD50FT.RSD
Sendo sincero, acha mesmo que essa comparação é necessária? Todo esse trabalho para quê? Para, depois de um dia inteiro (ou mais) gasto fazendo tudo isso que você falou, poder encher a boca e dizer: o Linux (ou Windows) é mais rápido, pois o OpenOffice abre em 40s nele e em 42 no outro? Não seria melhor focar tamanho esforço em outras coisas?
O artigo, embora escrito de forma simples, é bastante técnico, e não deixa muito claro, por exemplo, quanto dessa perda de desempenho afeta o usuário final, seja ele de servidor ou desktop. Diz que o kernel está ficando grande, pela adição de recursos (e pelo bom suporte a esses recursos) e lento por vários motivos, e deixa claro que não dá para relacionar essas duas coisas. Não foge da realidade, a meu ver, mas não é um problema gritante. As camadas mais altas do Linux (acima do kernel, como os ambientes gráficos) sofrem de problemas similares, e nem por isso deixamos de usar Linux. Infelizmente, na ânsia (e necessidade) de se ter novos recursos, temos um preço a pagar. Se o custo de hardware fosse o mesmo sempre (em qualquer SO), novos hardwares não precisariam ser desenvolvidos.
Abraços.
Core_Dump
General de Pijama
Registrado
3.2K Mensagens
111 Curtidas
Ta certo, 2 segundos aqui, 4 segundos ali fazem pouca diferenca. Mas se somarmos todas as vezes que o SO e os programas sao iniciados e executados vai resultar num tempo consideravel, que poderia ser gasto em algo mais produtivo ou relaxante.
Se reduzir o tempo de carga de um programa e sistema operacional nao fosse importante nao seria uma obsessao atual entre os desenvolvedores.
N0625
Super Zumbi
Registrado
7.1K Mensagens
785 Curtidas
TerraSkilll
Não é necessária, de fato. Mas se eu tenho o material e tivesse de bobeira, faria sim, porque não? E não somente para ver se o OpenOffice carrega 10 segundos mas rápido no Linux ou no Windows. Desculpe se não consegui passar a minha ideia com clareza.
Agora uma coisa eu digo (ninguém é obrigado a concordar): as máquinas virtuais evoluiram a tal ponto que o desempenho geral está bem perto de um sistema nativo. Não vejo o motivo de não considerar tal teste. Mas é como eu disse no parágrafo anterior: se eu tenho o material necessário, faria esses testes numa boa.
Agora, no cerne da questão da corrida dos segundos: pra mim tanto faz o Linux estar pronto para uso em 40s e o Windows em 70s ou vice-versa. Sinceramente esse ponto não me interessa e nem incomoda. Não ganho nada com 15 segundos de crédito que um ou outro sistema me dá por ser mais rápido. 15 minutos até vai... hehe!
TerraSkilll
Zumbi
Moderador
4.1K Mensagens
1.2K Curtidas
Core_Dump
Ta certo, 2 segundos aqui, 4 segundos ali fazem pouca diferenca. Mas se somarmos todas as vezes que o SO e os programas sao iniciados e executados vai resultar num tempo consideravel, que poderia ser gasto em algo mais produtivo ou relaxante.
Se reduzir o tempo de carga de um programa e sistema operacional nao fosse importante nao seria uma obsessao atual entre os desenvolvedores.
Concordo que, somando tudo, podemos perder um tempo considerável. Minha crítica é que o tempo é usado como critério de comparação entre sistemas. Os sistemas tem filosofias diferentes, e estruturas internas diferentes. Ganhar tempo de boot, ou ao abrir um programa, é sim uma boa coisa, e agradeço pelos desenvolvedores se preocuparem com isso. Mas usar isso pra ficar levantando a bandeira de "Sistema X é mais rápido" é, a meu ver, desnecessário. É como uma situação que vi: um cara se vangloriava do tempo de boot do Ubuntu (30s, eu acho), comparando com o Windows. Mas ele quase nunca desligava o notebook...
H4RD50FT.RSD
Desculpe-me se fui grosseiro. Não quis que parecesse que sua ideia é "besteira". Para você, vale o mesmo comentário que fiz para o Core_Dump acima.
Minha ideia geral é que seria ótimo que o OpenOffice (citando um exemplo) abrisse em 10s, mas eu não deixo de usá-lo só porque ele demora 50s, já que os benefícios dessa "demora" compensam. É essa ponderação que procuro ter.
Abraços.
N0625
Super Zumbi
Registrado
7.1K Mensagens
785 Curtidas
Que isso, TerraSkilll! Não fiquei chateado. Palavra! Oxi! Foi grosseiro nada. É que eu queria passar outra coisa além do que dava a entender à primeira vista. E vi que compliquei demais. Esquenta não. =)
E eu também não me incomodo com 10, 20 segundos de demora na abertura de um aplicativo. Enquanto não inventarem algo que seja mais rápido que o disco rígido (o SSD parece chegar perto), não tem como sonha com um carregamento de 3 segundos nos programas que mais usamos. =) Até mesmo celular demora a carregar o seu SO.
carq
Geek
Registrado
3.3K Mensagens
65 Curtidas
bem eu acho que o ambiente influencia muito mais do que o kernel
os modulos do kernel só ficam ativos se vc tiver x hardware se não tiver x hardware ele fica ali como um arquivo que não é nem lido como isso pode fazer perder tanto rendimento ?
lembrando que do kernel 2.4 para o 2.6 o rendimento é muito superior
teste do kernel ubuntu aqui comparando com o do mac http://sekhon.berkeley.edu/macosx/
outra quem quer velocidade no linux use lxde ou xcfe4 que abre tudo muito rapido eu estou muito satisfeito com o ubuntu e lxde roda foquete aqui não troco por windows nem mac
rubensk8
Geek
Registrado
2.4K Mensagens
111 Curtidas
Muito interessante! Apesar de gostar do Gnome vou fazer uns testes!! Valeu!!
Lxde beta? Vou esperar, pois não gosto muito de beta.
PHIRON
Zumbi
Registrado
6K Mensagens
418 Curtidas
Nesse tópico eu coloquei as alterações que fiz no arch que o deixaram muito mais rápido do que antes, a maioria com relação ao sistema de arquivos, estou acreditando que ele é que é o verdadeiro vilão da história, seria interessante saber quais sistemas de arquivos "alternativos" que possam conceder segurança e velocidade à execução dos aplicativos...
Timetamon
Super Participante
Registrado
636 Mensagens
28 Curtidas
eu sou leigo ainda sobre esse nível de informação (a respeito de kernel, sistema de arquivos, etc), mas de certa forma os sistemas em geral estão ficando cada vez mais incrementados e parece que a demanda é grande porque os softwares estão ficando tambem muito rebuscados. Não seria então consequência natural que as Distros apresentassem esse "inchaço" ?
PHIRON
Zumbi
Registrado
6K Mensagens
418 Curtidas
Eu instalei o ubuntu 10.04 x86-64 beta em um notebook com o sistema de arquivos da raiz "/" em XFS e o /tmp em JFS, o /home eu mantive em ext4 porque ele já estava formatado assim e tinha dados de alguns usuários, não sei se é o ubuntu 10.04 mesmo que está muito rápido ou é o sistema de arquivos, só sei que ficou surpreendentemente veloz.
EDIT.: Encontrei um artigo interessante sobre sistemas de arquivos: http://www.debian-administration.org/articles/388
Depois de umas pesquisas no Google eu percebi que aparentemente os sistemas XFS e JFS possuem uma performance melhor, em uma especial atenção ao XFS que faz cache constante na memória RAM, que hoje em dia é abundante nos micros, ainda mais no linux onde o sistema em geral faz pouco uso da mesma, eu mesmo nunca vi o meu micro usando mais de 50~40% da memória instalada, em sistemas com 2GB ou mais é uma ótima pedida, principalmente em notebooks onde problemas com quedas de energia são praticamente inexistentes.
Marcos FRM
Highlander
Registrado
10.3K Mensagens
712 Curtidas
Eu sempre tive vontade de testar o XFS. Pelo que leio é um baita sistema de arquivos. Mas ainda não tive coragem. Quando sair o 10.04 final talvez eu tome coragem. Vamos ver.
PHIRON
Zumbi
Registrado
6K Mensagens
418 Curtidas
Então, com algumas alterações que fiz no Arch obtive um aumento estrondoso no desempenho da máquina, então percebi que o sistema de arquivos faz realmente muita diferença , eu não tive tempo de testar o XFS com mais cuidado, porém como eu disse, o Ubuntu 10.04 está ridiculamente veloz no Notebook da HP, é um Core 2 Duo 2.0, 4GB de ram e 250GB de HD, chipset intel. Com o ubuntu 9.10 x86-64 os programas sempre davam um leve "delay" para abrir, bem como os menus, o openoffice demorava vários segundos para abrir mesmo com o quick start, agora com o ubuntu 10.04 x86-64 com sistema de arquivo XFS tudo abre de modo instantâneo, está incrivelmente rápido, a inicialização depois do grub leva menos de 40s para o desktop estar prontinho para o uso. Juro que se o Arch não estivesse tão redondo e não tivesse levado tanto tempo para configurar do modo que está, eu formatava e instalava o Arch com XFS, mas em time que está ganhando não se mexe hehe.
N0625
Super Zumbi
Registrado
7.1K Mensagens
785 Curtidas
Mas no caso do Linux, umas distros são mais rápidas que outras. Por exemplo, Slackware, Debian, Sidux e Arch são otimizadas a tal ponto de serem muito mais leves que Ubuntu, Mandriva, Fedora e OpenSUSE, por exemplo.
Por que o receio, Marcos?