Logo Hardware.com.br
mtulio_2000
mtulio_2000 Tô em todas Registrado
1.5K Mensagens 103 Curtidas
#15 Por mtulio_2000
07/10/2010 - 15:21
apterix disse:
1) Capacidade teórica do Windows Cluster 2008 é de 256 núcleos. Não vi uma única alma que testou isso até hoje. E duvideo-dó que windows gerencia bem 256 processadores... mal gerencia um quad core...

2) Que história é essa de 48 núcleos? Um Kernel Linux suporta muito mais que isso... No 2.6.2x já suportava 1024... já passamos de 4096 também... desconheço o limite atual.
Sua fonte foi péssima quanto a informação repassada.

3) A dificuldade do paralelismo massivo não cresce de acordo com o número de núcleos; Compiladores e linguages estão orientados a processamento serializado e não paralelo, e é isso que dificulta a programação. Linguagens como CUDA, CUDA++ e OpenCL já são orientadas a programação massiva, mas ainda não são genéricas o suficientes igual o X86 para processamento de dados.



Dessa vez concordo com o Apterix... O Kernel Linux é muito mais otimizado para trabalhar com muitos núcleos, os 48 são poucos mesmo, revejam a lista dos Top 500, mais de 80% Linux e quase 10% híbridos (aposto que esses híbridos devem ter muito de Linux neles).

Pode ser que as versões para servidor do Windows como a 2008 realmente trabalhem com mais cores, contudo duvido que tenham a eficiência do Linux, os números do Top 500 não mentem...
Pra desktop no "mundo normal", o W7 até gerencia melhor os meus 4 núcleos, contudo são raros os programas feitos para ele que otimizem esse potencial. Geralmente produtos profissionais e caros...
Já o "XPzão" véio de guerra por mais que se remende com service pack 3 e cia. não rende quase nada em multicore, fico com 2 núcleos praticamente inativos nele, imagina um X6?


PS: Agora que pude ler a respeito da explicação do Foca, tenho que concordar que a vantagem do Linux está mais para threads do que para núcleos... Mas só por ter código aberto ainda acho que o Linux levará melhor essa batalha no longo prazo...
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#16 Por apterix
07/10/2010 - 23:49
Usar threads não é fazer programação paralela, é só conversa fiada para botar cada thread em um núcleo. Quando acaba os núcleos, o que é muito fácil, volta a ser serializado...

E não preciso trabalhar "numa das maiores empreiteiras do mundo" para saber se o Linux é ou não é mais otimizado que o Windows para mútilplos núcleos, múltiplos cpus. A experiência de trabalhar no C3SL da UFPR (e nem vou comentar as configurações das máquinas da UFPR para não ficar brigando com mania de grandeza) me diz isso.

Coloque um firewall baseado em windows para aguentar 2 portas de 10gbps de tráfego no limite e veja como o Windows não conseguirá tratar tantas interrupções, além dele não permitir dedicar núcleos só para processamento de rede e gerenciar muito mal essas portas. Nesses casos as empresas acabam superdimensionando a máquina ou comprando um firewall em hardware, que nada mais é que uma implementação de algum Unix para fazer isso.

Eu estou falando aqui de cargas pesadas, situações extremas de desempenho, e afirmo e reafirmo que Windows não aguenta.

Sistemas críticos com Windows superdimensionam seus sistemas para garantir tratamento correto quando as solicitações de I/O e interrupções forem altas. No Linux temos certeza de que funcionam em situações extremas.

Quanto aos 256 núcleos do Windows cluster 2008, se bem me lembro eles dizem núcleos, mas isso é traduzido em número de pontos de processamento (cpus*nucleos +cpus virtuais) e não núcleos. Nunca vi na especificação deles falar de núcleos com o conceito que temos hoje. Só se mudou algo de 2008 pra cá, mas eu penso que não.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
Marcos FRM
Marcos FRM Highlander Registrado
10.3K Mensagens 712 Curtidas
#17 Por Marcos FRM
08/10/2010 - 00:08
apterix disse:
Usar threads não é fazer programação paralela, é só conversa fiada para botar cada thread em um núcleo. Quando acaba os núcleos, o que é muito fácil, volta a ser serializado...

Então como se faz programação paralela em, digamos, C hoje? Peguemos um exemplo de algum software "pesado", como um encoder de vídeo. Pelo que já dei uma olhada nos commits no repositório Git do x264, as otimizações que eles fazem é colocar uma pá de assembly para usar MMX, SSE, SSE2, SSE3, SSSE3, SSE4, ..., e separar o que der em threads. Outro exemplo é o branch "mt" do ffmpeg (link), que consiste no código principal multithreaded.
...
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#18 Por apterix
08/10/2010 - 00:54
Marcos FRM disse:
Então como se faz programação paralela em, digamos, C hoje? Peguemos um exemplo de algum software "pesado", como um encoder de vídeo. Pelo que já dei uma olhada nos commits no repositório Git do x264, as otimizações que eles fazem é colocar uma pá de assembly para usar MMX, SSE, SSE2, SSE3, SSSE3, SSE4, ..., e separar o que der em threads. Outro exemplo é o branch "mt" do ffmpeg (link), que consiste no código principal multithreaded.


Não se faz. Os compiladores em C não estão preparados para programação massivamente paralela. Nem as CPUs. CPUs são arquiteturas serializadas cuja paralelização vem da serialização de instruções, adiantamento de dados, previsões de desvios e tomadas de decisões etc.

Quando extendemos isso a diversas CPUs e núcleos, podemos de fato a começar a programar de verdade aplicações para rodar em paralelo, em especial nas núvens. Threads depende das aplicações pai e são uma espécie de mini-processos que são serialiados nos núcleos a que elas são dedicados. Programar em paralelo é botar em um monte de pipelines em diversos núcleos com diversas instruções e rodar tudo ao mesmo tempo. Isso cluster de CPU faz com um desempenho razoável, mas no final das contas você está usando na maioria dos vezes x86, serializando instruções. Não é igual GPU, onde de fato tudo ocorre em paralelo, e não abstrações de paralelismo em uma arquitetura serializada.
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#20 Por foca
08/10/2010 - 11:17
Eu estou falando aqui de cargas pesadas, situações extremas de desempenho, e afirmo e reafirmo que Windows não aguenta.

Certo e quais evidências você tem para provar isso?
Podemos provar que o Bradesco/Itau Unibanco/Votorantim/ETC usam Windows nos servidores.
Que a Bovespa usa Windows + SQL Server.
Que o governo do Estado de São Paulo e Prefeitura de São Paulo usam em servidores criticos.
Mais diversas empresas ao redor do mundo, você tem alguma evidência que prove que o Windows não é capaz de lidar com cargas de trabalho altas?
Se isso fosse verdade porque tantas empresas, em tantos setores usam Windows no Backend para sistemas críticos e de alta demanda??


Quanto aos 256 núcleos do Windows cluster 2008, se bem me lembro eles dizem núcleos, mas isso é traduzido em número de pontos de processamento (cpus*nucleos +cpus virtuais) e não núcleos. Nunca vi na especificação deles falar de núcleos com o conceito que temos hoje. Só se mudou algo de 2008 pra cá, mas eu penso que não.

Ninguém esta falando do Windows Cluster e sim do Windows Server 2008 R2 Enterprise e Datacenter.
E senão viu foi porque não se deu ao trabalho de ver.
A Microsoft já testou com 256 núcleos e certificou o Windows para 256 núcleos em uma única CPU ou em várias CPU´s.
Lembrando que não existe nenhum sistema comercial com mais de 128 núcleos e o foco da Microsoft é em sistemas comerciais e computação de alto desempenho, mesmo em supercomputadores não existem mais sistemas com milhares de processadores em um único hardware como antigamente.


Coloque um firewall baseado em windows para aguentar 2 portas de 10gbps de tráfego no limite e veja como o Windows não conseguirá tratar tantas interrupções, além dele não permitir dedicar núcleos só para processamento de rede e gerenciar muito mal essas portas. Nesses casos as empresas acabam superdimensionando a máquina ou comprando um firewall em hardware, que nada mais é que uma implementação de algum Unix para fazer isso.

Onde eu trabalhava 2500 usuários e um ISA Server e 4 links, em um dos clientes da consultoria que trabalho atualmente são 12.000 usuários e um servidor rodando TMG.
O que muitas empresas fazem é ter o ISA delimitando as regras de acesso dos usuários internos assim como os redirecionamentos e um Appliance Firewall para bloquear o acesso externo e gerenciamento dos links.
Você falar que o Windows não aguenta não prova que ele não aguenta.


Sistemas críticos com Windows superdimensionam seus sistemas para garantir tratamento correto quando as solicitações de I/O e interrupções forem altas. No Linux temos certeza de que funcionam em situações extremas.

Qualquer sistema crítico é superdimensionado é um dos motivos que se faz capacity planning é o sistema aguentar a demanda atual e futura por um prazo relativamente longo de tempo.
8x AMD-Sony JAGUAR 1.6GHz| 8GB@2.7GHz GDDR5| 18x RADEON@800MHz| Sony BD| Gaikai Cloud
STI Cell 3.2GHz| 256MB@3.2GHz RAMBUS| Nvidia RSX@500MHz| 256MB VGA RAM| Sony BD
Sony EE 295MHZ 128 bits|Sony GS 148MHZ|32MB RDRAM| Sony DVD
http://brunofoca.blog.uol.com.br
12 anos de GDH - Ñ tiro dúvida por MP
mtulio_2000
mtulio_2000 Tô em todas Registrado
1.5K Mensagens 103 Curtidas
#21 Por mtulio_2000
08/10/2010 - 14:09
Bom, não tenho argumentos técnicos para participar da discussão (sadia diga-se de passagem), pois sou um mero economista que por achar que programa SAS, R e faz umas macrozinhas em VB se considera meio "informático". Caso o Capitão Nascimento me conhecesse me chamaria de fanfarrãonao_quero_nem_ver.png , pois meu conhecimento de informática do nível que estamos discutindo é de quase leigo...
Contudo o número de supercomputadores usando Linux é brutalmente superior aos que usam SO Microsoft, mesmo esse super sistema para servidores, que eu imagino que seja algumas centenas de vezes melhor do que o W7 que eles jogam pro usuário doméstico.
No link que postei 89% dos supercomputadores são linux. O 2º mais rápido do mundo (chinês) realmente mescla a GPU Tesla da nVidia e usa Linux...

System NameNebulae SiteNational Supercomputing Centre in Shenzhen (NSCS)System FamilyDawning ClusterSystem ModelDawning TC3600 Blade SystemComputerDawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPUVendorDawningApplication areaResearchInstallation Year2010 Operating SystemLinuxInterconnectInfiniband QDRProcessorIntel EM64T Xeon X56xx (Westmere-EP) 2660 MHz (10.64 GFlops)
Bit0N3
Bit0N3 Cyber Highlander Registrado
14.5K Mensagens 3.4K Curtidas
#22 Por Bit0N3
08/10/2010 - 14:47
Até o windows XP suportava várias CPUs

O que não esta suportando direito ainda isso são "alguns programas" e de qualquer forma é beneficiado pelo multi processador.

Lance de codec de video é um padrão proprietário e patenteado que quem quiser usar tem que seguir o que o desenvolvedor especificou e limitou.

100% dos micros atuais com um video dedicado, seja o mais simplorio que for tem decoder H264 na placa de video e não é a CPU que trabalha com isso.

Trabalhar em processamento paralelo ou linear ? voces tão misturando ai placas de video e gpgpu com multicore.

A forma que o programa vai trabalhar é ditada pelo sistema e recursos que o programa pede a ele. se o sistema suporta o multi-core vai poder trabalhar.

não existe isso de C não poder trabalhar em processamento paralelo, linear ou o diabo a 4.

C é a linguagem usada no CUDA pra quem não sabe.

e não existe nada mais versatil, o que ela não faz, voce completa ela com ela mesma criando módulos e bibliotecas.

ex de programa rodando (esse programa roda ate em win 98) usando 8 cores disponiveis no micro.

capturaro.jpg

[]'s
Recomendação: Lord of the rings online MMORPG SHow de bola, roda no fedora pelo lutris.
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#23 Por foca
08/10/2010 - 15:33
O que o pessoal parece não entender da utilização do Linux em supercomputadores e a vantagem do Linux nesse tipo de sistema.
Os supercomputadores atuais não são como antigamente que tem milhares de processadores em um hardware e todo o software escrito do zero para aquele sistema.
Hoje eles são na verdade várias placas de processamento cada uma com uma interface de rede e um Kernel minimalista que controla apenas rede e alguns outros processos de I/O e controle de operações esses nós são controlados por alguns nós centrais, mais facil usar Linux em um sistema desse com o Kernel e as funções básicas do que a cada novo supercomputador escrever todo o sistema do zero.
Por sinal na maioria dos supercomputadores o sistema é monotarefa, o Linux só esta ali para servir para a comunicação entre os racks, nós, placas e manter um sistema onde se pode desenvolver em cima, ao invés de ter que fazer todo o sistema operacional do supercomputador do zero.

O Windows nunca quis entrar nesse nicho, a ideia da Microsoft e dos clientes que usam Windows nesse segmento é computação de alto desempenho onde a facilidade de programação do ambiente Windows se mostram superiores.

Outro erro que o TOP500.org causa é que muitas pessoas vem os supercomputadores lá e pensam que são uma única grande maquina quando os maiores servidores atuais são maiores que os maiores nós de processamento do TOP 500.
Um exemplo o Jaguar é na verdade o conjunto de vários nós de computação contendo dois Opteron [EMAIL="Hexa-core@2.6GHz"]Hexa-core@2.6GHz[/EMAIL] e 16GB de memória DDR2 e nós com Quad-Core Opteron @ 2.1GHz e 8GB de memória DDR2, hardware esse que o Windows 2003 já suportava completamente.
No caso do Jaguar entre esses nós, existe alguns nós de serviço que rodam o Kernel Linux full, enquanto os nós de computação rodam um Kernel minimalista.

O que acontece é quando se manda uma tarefa para o supercomputador se envia pelos nós de serviço que então quebram a tarefa em milhares de pedaços e distribuem entre os nós de computação em um esquema parecido com o [EMAIL="Folding@Home"]Folding@Home[/EMAIL].
8x AMD-Sony JAGUAR 1.6GHz| 8GB@2.7GHz GDDR5| 18x RADEON@800MHz| Sony BD| Gaikai Cloud
STI Cell 3.2GHz| 256MB@3.2GHz RAMBUS| Nvidia RSX@500MHz| 256MB VGA RAM| Sony BD
Sony EE 295MHZ 128 bits|Sony GS 148MHZ|32MB RDRAM| Sony DVD
http://brunofoca.blog.uol.com.br
12 anos de GDH - Ñ tiro dúvida por MP
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#24 Por apterix
08/10/2010 - 19:09

Podemos provar que o Bradesco/Itau Unibanco/Votorantim/ETC usam Windows nos servidores.
Que a Bovespa usa Windows + SQL Server.
Que o governo do Estado de São Paulo e Prefeitura de São Paulo usam em servidores criticos.
Mais diversas empresas ao redor do mundo, você tem alguma evidência que prove que o Windows não é capaz de lidar com cargas de trabalho altas?
Se isso fosse verdade porque tantas empresas, em tantos setores usam Windows no Backend para sistemas críticos e de alta demanda??
Qualquer um que trabalhou com esses equipamentos e inclusive com contratos de operadora de telefonia sabe que via de regra eles trabalham com no máximo 20% da carga total e os respectivos sistemas não operam acima de 50% em pico. Isso tudo é previsto em contrato. Ninguém vai deixar um windows em 90-100% em sistemas críticos.

Provar o quê? Você não trabalha numa das maiores empreiteiras do mundo? Olhe para os seus sistemas...


Ninguém esta falando do Windows Cluster e sim do Windows Server 2008 R2 Enterprise e Datacenter.
Cluster, server, enterprise, datacenter... kernels com menos de 0,001% de diferença com preços muito diferentes. Não preciso explicar mais nada que isso.


Onde eu trabalhava 2500 usuários e um ISA Server e 4 links, em um dos clientes da consultoria que trabalho atualmente são 12.000 usuários e um servidor rodando TMG.
O que muitas empresas fazem é ter o ISA delimitando as regras de acesso dos usuários internos assim como os redirecionamentos e um Appliance Firewall para bloquear o acesso externo e gerenciamento dos links.
Você falar que o Windows não aguenta não prova que ele não aguenta.
Sabe porque quase ninguém no mundo não faz firewall de subrede com windows? Porque os firewalls conseguem ser mais caros que o próprio sistema operacional e porque eles não aguentam alta demanda sob o kernel do windows.

E sabe porque 99,9% dos firewall em hardware possuem Unix ou Linux implementado? Porque eles aguentam. Só não digo 100% porque vai que existe algum... eu nunca vi um desses...


Qualquer sistema crítico é superdimensionado é um dos motivos que se faz capacity planning é o sistema aguentar a demanda atual e futura por um prazo relativamente longo de tempo.
Típico de sysadmin é colocar nome em inglês para tudo. Faz parecer chique, normalmente algum certificado m$ ensina isso.

Quer falar comigo fale em português e sem mania de grandeza e com mente aberta a reconhecer fatos.

Eu sei e todo mundo sabe que toda empresa que se prese não deixa nenhum servidor operar acima de 50% e com pelo menos 1 nível de paridade de dados. Isso é o básico. Mas muitas grandes empresas não fazem isso por N motivos, como foi o caso da Telefônica.

Agora coloque Windows para controlar supercomputador, nós de telefonia móvel ou fixa, centrais de acesso a internet, grid, cluster, topologia hipercubo ou torus multidimensional, o que você quiser que exija bom e rápido trabalho do Kernel. Não aguenta. Provar pra quê? É só ver como a maioria das tarefas de alto desempenho usam soluções unix, linux, bsd etc. Windows serve pra muitos tipos de hosts, mas não de alto desempenho sem ser superdimensionado.

E quanto mais dimensionado mais eficiência ele perde por não ser eficiente na divisão de tarefas, mesmo que o x86 não seja o melhor caminho para processamento paralelo. Mas com centenas de x86 pode-se operar sob arquitetura MIMD, como nas núvens, e eu duvido que empresas como Oracle ou Google jogariam seus serviços para o Windows.

Aliás já reparou que os maiores serviços online do mundo estão em unix ou linux? E já notou quantos problemas de segurança e desempenho eles já tiveram? E já comparou isso com as invasões dos sites da Microsoft e a qualidade do hotmail e atual windows live mail?

Nem Yahoo e nem Gmail tiveram juntos downtime superior.

Windows dá para usar para muitas coisas, embora você entregue 20% ou mais da sua segurança e desempenho fora. Como confiar em um sistema que tem em suas entranhas arquitetura com, exe e pe (aliás esse último uma cópia descarada do elf da sun)? Não dá nem para confiar na separação das regras de permissão de acesso a memória, então imagine uma nuvem feita sob windows. Nem creio que isso seja possível ainda.


Podemos provar que o Bradesco/Itau Unibanco/Votorantim/ETC usam Windows nos servidores.
Servidores web. big_green.png


Que o governo do Estado de São Paulo e Prefeitura de São Paulo usam em servidores criticos.
Será que foi por opção? =)

Um dos maiores distribuídores (mirrors) de software livre do mundo, o C3SL da UFPR, é operado com um parque 100% em Debian, incluindo o firewall. Quantas vezes você já viu ele fora do ar?

E posso apostar que o tráfego de 6 horas dessa rede dá mais de 24 horas a da sua empresa. Se você quer brigar com mania de grandeza, eu também posso. Estamos falando de quantos GigaByte/s na sua empresa? Quantos firewall vocês usam na saída para segurar todo o seu tráfego?

Aqui já dou uma dica: Um quad core intel, com 2 portas 10gbps e 1 porta 1gbps todas em full, sob Debian, 24 horas por dia. 1 porta por núcleo e 1 núcleo para o sistema operacional. 2GB de memória... e aguenta...
Hospedagem de sites low-end: www.ilax.com.br Com cPanel 11 e suporte técnico inteligente. isso_ai.png
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#26 Por foca
08/10/2010 - 20:37
apterix disse:
Qualquer um que trabalhou com esses equipamentos e inclusive com contratos de operadora de telefonia sabe que via de regra eles trabalham com no máximo 20% da carga total e os respectivos sistemas não operam acima de 50% em pico. Isso tudo é previsto em contrato. Ninguém vai deixar um windows em 90-100% em sistemas críticos.

Provar o quê? Você não trabalha numa das maiores empreiteiras do mundo? Olhe para os seus sistemas...

Não, eu trabalho na consultoria que ajudou essas empresas a acertar seus sistemas, nessa empreiteira os servidores Windows estão rodando a 60% de carga simplesmente porque eles dimensionaram os servidores para atender a demanda ate 2013 quando sai a próxima versão do Windows.
Nenhum sistema é vendido para rodar com 20% de carga isso seria um desperdício imenso de recursos em qualquer ambiente.
Por sinal em projetos de virtualização os sistemas são dimensionados para trabalhar com 90% de carga 100% do tempo, menos que isso se compra um Hardware menor.


Cluster, server, enterprise, datacenter... kernels com menos de 0,001% de diferença com preços muito diferentes. Não preciso explicar mais nada que isso.

Você tem alguma fonte disso ou esta falando por falar?
Porque existe algumas diferenças boas entre o Standart para o Enterprise e desses para o Datacenter, não existe uma versão cluster e sim HPC.


Sabe porque quase ninguém no mundo não faz firewall de subrede com windows? Porque os firewalls conseguem ser mais caros que o próprio sistema operacional e porque eles não aguentam alta demanda sob o kernel do windows.

E sabe porque 99,9% dos firewall em hardware possuem Unix ou Linux implementado? Porque eles aguentam. Só não digo 100% porque vai que existe algum... eu nunca vi um desses...

O que é alta demanda para você?
E para que investir em Windows, licenças, refrigeração se vai ser usado para uma única coisa sendo que um Appliance para fazer o mesmo com menor TCO?
O Windows não é a melhor solução para todos os casos e isso é óbvio e ululante.


Típico de sysadmin é colocar nome em inglês para tudo. Faz parecer chique, normalmente algum certificado m$ ensina isso.

Quer falar comigo fale em português e sem mania de grandeza e com mente aberta a reconhecer fatos.

Complexo de inferioridade?
O nome é esse, ninguém traduz um termo que se auto-explica em inglês e cuja a definição correta se encontra em boa parte na literatura nesse idioma.


Eu sei e todo mundo sabe que toda empresa que se prese não deixa nenhum servidor operar acima de 50% e com pelo menos 1 nível de paridade de dados. Isso é o básico. Mas muitas grandes empresas não fazem isso por N motivos, como foi o caso da Telefônica.

Empresa nenhuma que se preze vai comprar um servidor para usar ele abaixo de 50%, por isso que a virtualização é o paraíso para os CIOs, redução de custo de aquisição (Ao invés de comprar 20 servidores para rodar a 20% de uso se compra um ou dois servidores que absorvem o trabalho dos 20), menor custo de operação, menor custo de administração.
No mundo Mainframe então tenta justificar a aquisição de um para ficar 50% do tempo parado.
Sabe o que é um servidor sendo usado a menos de 50%?
Má gerencia, porque se gastou dinheiro demais em um hardware que não esta sendo usado nem perto do seu potencial, que custa mais para operar e que quando se pensa em escalar se precisa de outro hardware o que aumenta os custos operacionais, custo de de administração...


Agora coloque Windows para controlar supercomputador, nós de telefonia móvel ou fixa, centrais de acesso a internet, grid, cluster, topologia hipercubo ou torus multidimensional, o que você quiser que exija bom e rápido trabalho do Kernel. Não aguenta. Provar pra quê? É só ver como a maioria das tarefas de alto desempenho usam soluções unix, linux, bsd etc. Windows serve pra muitos tipos de hosts, mas não de alto desempenho sem ser superdimensionado.

O que é um host de alto desempenho para você?
Aparentemente toda sua argumentação se baseia na lista do TOP500, existe diversas outras utilizações de alta demanda, como sistemas de banco de dados, sistemas de controle industrial, serviços de diretório, serviços de e-mail, servidores de aplicação, etc.


E quanto mais dimensionado mais eficiência ele perde por não ser eficiente na divisão de tarefas, mesmo que o x86 não seja o melhor caminho para processamento paralelo. Mas com centenas de x86 pode-se operar sob arquitetura MIMD, como nas núvens, e eu duvido que empresas como Oracle ou Google jogariam seus serviços para o Windows.

Acho bom você se informar sobre o Azure.


Aliás já reparou que os maiores serviços online do mundo estão em unix ou linux? E já notou quantos problemas de segurança e desempenho eles já tiveram? E já comparou isso com as invasões dos sites da Microsoft e a qualidade do hotmail e atual windows live mail?
Nem Yahoo e nem Gmail tiveram juntos downtime superior.

Você poderia citar noticias de invasões do site da Microsoft?
Não me recordo de nenhuma, nem de Downtime do Hotmail.
Do MSN eu ate lembro, mas do Hotmail?


Windows dá para usar para muitas coisas, embora você entregue 20% ou mais da sua segurança e desempenho fora. Como confiar em um sistema que tem em suas entranhas arquitetura com, exe e pe (aliás esse último uma cópia descarada do elf da sun)? Não dá nem para confiar na separação das regras de permissão de acesso a memória, então imagine uma nuvem feita sob windows. Nem creio que isso seja possível ainda.

Se chama Windows Azure e tem entre alguns clientes a Pixar.



Um dos maiores distribuídores (mirrors) de software livre do mundo, o C3SL da UFPR, é operado com um parque 100% em Debian, incluindo o firewall. Quantas vezes você já viu ele fora do ar?

E posso apostar que o tráfego de 6 horas dessa rede dá mais de 24 horas a da sua empresa. Se você quer brigar com mania de grandeza, eu também posso. Estamos falando de quantos GigaByte/s na sua empresa? Quantos firewall vocês usam na saída para segurar todo o seu tráfego?

Aqui já dou uma dica: Um quad core intel, com 2 portas 10gbps e 1 porta 1gbps todas em full, sob Debian, 24 horas por dia. 1 porta por núcleo e 1 núcleo para o sistema operacional. 2GB de memória... e aguenta...

Considerando que a empresa em questão tem filiais em todos os estados brasileiros e quatro países da América do Sul e em alguns países da Africa, Árabia Saudita, e siderúrgicas em construção ou em operação na Rússia, China, Índia e em outros países, não sei se dá para comparar.
Mas posso dizer que todo mundo no final acaba acessando o cluster de 25 servidores onde estão publicado todas as aplicações da empresa, tudo isso saindo no anel de fibra da Embratel aqui em SP.
8x AMD-Sony JAGUAR 1.6GHz| 8GB@2.7GHz GDDR5| 18x RADEON@800MHz| Sony BD| Gaikai Cloud
STI Cell 3.2GHz| 256MB@3.2GHz RAMBUS| Nvidia RSX@500MHz| 256MB VGA RAM| Sony BD
Sony EE 295MHZ 128 bits|Sony GS 148MHZ|32MB RDRAM| Sony DVD
http://brunofoca.blog.uol.com.br
12 anos de GDH - Ñ tiro dúvida por MP
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#28 Por foca
08/10/2010 - 20:52
ice2642 disse:
A Pixar não usa o OS-X server?

Era crente que usavam.

[]'s


Pera ai que eu acho que me enganei mesmo.
Pixar é do Toy Store e do Steve Job, a que eu queria lembrar é a que fez o Avatar.
Achei o nome é a Lightstorm Enterteinment.
Os sistemas da Microsoft armazenaram online mais de 1PB de dados gerados na produção do filme na plataforma Azure, os dados ficavam a disposição das equipes assim que eram renderizados.
O Linux renderizava uma cena, ela então era digitalizada pela plataforma Microsoft e colocada online para ser analisada e trabalhada.
8x AMD-Sony JAGUAR 1.6GHz| 8GB@2.7GHz GDDR5| 18x RADEON@800MHz| Sony BD| Gaikai Cloud
STI Cell 3.2GHz| 256MB@3.2GHz RAMBUS| Nvidia RSX@500MHz| 256MB VGA RAM| Sony BD
Sony EE 295MHZ 128 bits|Sony GS 148MHZ|32MB RDRAM| Sony DVD
http://brunofoca.blog.uol.com.br
12 anos de GDH - Ñ tiro dúvida por MP
© 1999-2024 Hardware.com.br. Todos os direitos reservados.
Imagem do Modal