Logo Hardware.com.br
angeloshimabuko
angeloshimab... Veterano Registrado
933 Mensagens 67 Curtidas
#31 Por angeloshimab...
09/10/2010 - 00:09
foca disse:
Pera ai que eu acho que me enganei mesmo.
Pixar é do Toy Store e do Steve Job, a que eu queria lembrar é a que fez o Avatar.
Achei o nome é a Lightstorm Enterteinment.
Os sistemas da Microsoft armazenaram online mais de 1PB de dados gerados na produção do filme na plataforma Azure, os dados ficavam a disposição das equipes assim que eram renderizados.
O Linux renderizava uma cena, ela então era digitalizada pela plataforma Microsoft e colocada online para ser analisada e trabalhada.


Segundo Rebecca Murray, a principal empresa na produção dos efeitos especiais de Avatar foi a Weta Digital -- v. "Inside James Cameron's Groundbreaking 'Avatar'", disponível em .

O mesmo é afirmado por Armand Niculescu, em "The software used in the making of Avatar", disponível em : "Weta Digital, New Zealand (most of the work, character modeling, animation, rendering)".

A plataforma usada pela Weta Digital foi uma fazenda de computadores (server farm ou server cluster ou datacenter, como queiram) executando o Ubuntu Linux:

"Ubuntu Linux used in the making of Avatar", em ;

"35,000-Core Ubuntu Farm Renders Avatar", em ;

"Data Center Plays Supporting Role in Avatar", em ;

"Processing AVATAR", ...

Aliás, segundo Marius Nestor, "Hollywood loves Linux", em .
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#33 Por foca
09/10/2010 - 00:39
angeloshimabuko disse:
Segundo Rebecca Murray, a principal empresa na produção dos efeitos especiais de Avatar foi a Weta Digital -- v. "Inside James Cameron's Groundbreaking 'Avatar'", disponível em .

O mesmo é afirmado por Armand Niculescu, em "The software used in the making of Avatar", disponível em : "Weta Digital, New Zealand (most of the work, character modeling, animation, rendering)".

A plataforma usada pela Weta Digital foi uma fazenda de computadores (server farm ou server cluster ou datacenter, como queiram) executando o Ubuntu Linux:

"Ubuntu Linux used in the making of Avatar", em ;

"35,000-Core Ubuntu Farm Renders Avatar", em ;

"Data Center Plays Supporting Role in Avatar", em ;

"Processing AVATAR", ...

Aliás, segundo Marius Nestor, "Hollywood loves Linux", em .


Sim e eu mesmo afirmei isso na minha mensagem sobre o papel do Linux na renderização.
Mas o filme não foi só efeitos especiais e já que você se deu ao trabalho de pesquisar deveria ter procurado sobre o papel da Microsoft na produção do filme.
http://www.beingmanan.com/wp/2010/06/avatar-microsoft-gaia/
http://www.microsoft.com/microsoftservices/en/us/article_Microsoft_Role_In_Avatar.aspx
rubensk8
rubensk8 Geek Registrado
2.4K Mensagens 111 Curtidas
#34 Por rubensk8
09/10/2010 - 00:55
Marcos FRM disse:
Linux é quase unanimidade no Top500. Ok, é um grande kernel. Porém vamos descer um pouco para a terra dos mortais? Pensemos nos desktops. Por que o seguinte bug, que causa lentidão anormal, a ponto de tornar a máquina irresponsiva por minutos, quando efetuando operações de I/O em dispositivos lentos, aniquilando o desempenho, demorou tanto rempo (quase 2 anos!) para ser consertado?

Large I/O operations result in poor interactive performance and high iowait times

Correção (2.6.36): vmscan: raise the bar to PAGEOUT_IO_SYNC stalls

Eu já pensei antigamente que o fato do Linux ser imbatível nos servidores seria a poção mágica que faria ele brilhar também no desktop. Não é totalmente verdade. Muitas das virtudes vistas em servidores se propagam para nossas humildes máquinas, mas outras não. Pelo contrário, jogam contra um desktop responsivo e rápido. Felizmente, o kernel é altamente configurável e é possível tuna-lo para várias tarefas, mas o bug que citei acima ilustra que o código precisa de mais carinho voltado aos desktops.


??? Os sistemas operacionais refletem o que existe de hardware disponível. Sistemas operacionais presos ao x86-64? Existem sistemas operacionais para outras arquiteturas, também 64-bit, como MIPS64, PPC64.

Os chips ARM estão aos poucos popularizando. Não têm como competir em desempenho com os x86 da Intel/AMD, mas podem competir no custo. Um SoC ARM pode fazer tudo que um desktop médio precisa, consumindo uma merreca de energia e custando, se produzido em larga escala, uma fração de um equivalente x86. Deixe os chips ARM chegarem para valer aos desktops, que a Microsoft será obrigada a portar o Windows para ARM (desconsiderando ao Windows CE, que já é compatível, porém limitadíssimo para uso num desktop).


A rapidez que ele vem se desenvolvendo em desktop é grande, pois Linux em desktop é novidade recente, falo de coisa por volta de 2005, veja que o Ubuntu foi lançado em outubro de 2004... antes disso as distros eram muito secas, duras de se usar, tinha-se que estudar muita coisa técnica e os gerenciadores de janelas eram muito pobres, até os avanços do xorg é coisa recente... Agora, cada distro com sua filosofia, a Ubuntu acelera as coisas, mas nem tanto, pois espera pelo congelamento da Debian, e essa vem no passo mais lento. Mas veja que a Ubuntu que volta-se também para desktop investe muito nisso, basta ver o lançamento da versão 10.10. E olha que a Canonical tem contratado desenvolvedores da Debian, para se ter uma ideia da equipe. Mandriva: 2005, openSUSE: 2004 e por aí vai...
Agora, bug tem que ser analisado, como vocês bem colocaram um kernel que serve que rodar programas críticos não pode alterar uma coisa assim de uma hora para outra e se isso não interfere tanto assim no sistema, é melhor não mexer... mas se as distribuições desktops têm consciência disso podem corrigir, pois como você bem colocou elas podem tunar o kernel.

Sistema seja ele qual for é passível de erros. O que por si só já pode salvar acusações de má vontade que pode ser injusta, pois não sabemos se foi isso mesmo.

Não faço comparações de Windows e Linux, pois cada usa o que achar melhor, seja super computador, servidor de grande porte ou um simples usuário desktop. Cada um puxa sardinha para si.

Você falou de um bug Linux, mas veja aquele problema que o Windows tem quando impaca com uma impressora... você deliga a impressora e nada, reinicia o computador e nada, tenta limpar pasta de impressão e ele fica tentando limpar, mesmo quando limpa a impressora está lá sem funcionar... depois de ficar repetindo isso, ela acaba funcionado no tranco, que na maioria das vezes volta depois de uma reiniciação já imprimindo sem você ter pedido, a não ser quando ela deu o piripaque. Será que isso é um bug ou característica do sistema, e olha que isso é muuuito antigo!!! Até hoje quando amigos me veem online me pedem orientação sobre isso! Por isso o Windows é ruim? Será que Microsoft só dá atenção a seus servidores? Eu não acho, só não uso por uma questão de gosto.
Bit0N3
Bit0N3 Cyber Highlander Registrado
14.5K Mensagens 3.4K Curtidas
#35 Por Bit0N3
09/10/2010 - 06:03
antes do ubuntu facil de usar teve mais distros faceis de usar.

o kurumin por ex, mandriva, mandrake, o "LINDOWS" ehhehehehehehe (quem lembra disso? )

Cada OS tem seus pro e contras.

Eu acho uma boa linux ser usado em computadores de grande porte, é um unix gratis, pq não aproveitar ? uma licença de QNX, não sei hoje, mas ja custou U$ 10.000 e é quase mesma coisa.

[]'s
Marcos FRM
Marcos FRM Highlander Registrado
10.3K Mensagens 712 Curtidas
#36 Por Marcos FRM
09/10/2010 - 09:37
rubensk8 disse:
Agora, bug tem que ser analisado

A análise é bastante simples: leia o bug report do Bugzilla do kernel.org e do Launchpad. Está tudo lá. Posso resumir: quando sob pressão de memória (observação: pelos relatos acontece mesmo com memória livre), longa atividade de I/O em dispositivos lentos (como um pendrive vagabundo) acaba com a resposnsividade da máquina, mesmo ao realizar I/O em outro dispositivo (como o HD principal), tornando até mesmo a tarefa de abrir um shell arrastar-se por minutos em certos casos. E são relatos com detalhes técnicos (principalmente no Bugzilla), vindo de programadores.

A propósito, atualizando. A correção citada (vmscan: raise the bar to PAGEOUT_IO_SYNC stalls) não corrige o problema completamente. Dá uma melhorada, mas não soluciona: Bug #131094 in linux (Ubuntu): “Heavy Disk I/O harms desktop responsiveness”. Ou seja, sabe lá quando este problema será resolvido.

Por que está demorando tanto para ser corrigido? Porque não afeta servidores. Se afetasse, já estaria corrigido. Como é uma coisa que afeta os pobres mortais, que usam "esses hardwares lentos", daí é tudo mais devagar...
Alair.com
Alair.com Veterano Registrado
1.3K Mensagens 60 Curtidas
#37 Por Alair.com
09/10/2010 - 11:27
ice2642 disse:
antes do ubuntu facil de usar teve mais distros faceis de usar.

o kurumin por ex, mandriva, mandrake, o "LINDOWS" ehhehehehehehe (quem lembra disso? )


[]'s


Eu discordo,das três a única que se aproximou do "conceito Ubuntu" foi o Kurumim,porém era uma distro caseira baseada na boa vontade do Morimoto e por ser uma adaptação brasileira do Debian,ninguém de fora do Brasil ouviu falar,o Mandriva (antigo Mandrake) não vinha com os repositórios configurados por padrão,nada complicado de se resolver,mas suficientemente capaz de "fundir a cabeça" de velhos WinUsers em processo de migração.
rubensk8
rubensk8 Geek Registrado
2.4K Mensagens 111 Curtidas
#38 Por rubensk8
09/10/2010 - 13:06
Marcos FRM disse:
A análise é bastante simples: leia o bug report do Bugzilla do kernel.org e do Launchpad. Está tudo lá. Posso resumir: quando sob pressão de memória (observação: pelos relatos acontece mesmo com memória livre), longa atividade de I/O em dispositivos lentos (como um pendrive vagabundo) acaba com a resposnsividade da máquina, mesmo ao realizar I/O em outro dispositivo (como o HD principal), tornando até mesmo a tarefa de abrir um shell arrastar-se por minutos em certos casos. E são relatos com detalhes técnicos (principalmente no Bugzilla), vindo de programadores.

A propósito, atualizando. A correção citada (vmscan: raise the bar to PAGEOUT_IO_SYNC stalls) não corrige o problema completamente. Dá uma melhorada, mas não soluciona: Bug #131094 in linux (Ubuntu): “Heavy Disk I/O harms desktop responsiveness”. Ou seja, sabe lá quando este problema será resolvido.

Por que está demorando tanto para ser corrigido? Porque não afeta servidores. Se afetasse, já estaria corrigido. Como é uma coisa que afeta os pobres mortais, que usam "esses hardwares lentos", daí é tudo mais devagar...


Como seria esse bug na prática? colocar e tirar um simples pendirver não faz nada aqui, agora estou transferindo 8GB do pendriver para o hd e do hd para o pendriver.
Detalhe estou com uns 30 programas abertos para ver se ele fica sem resposta, mas o sistema está se comportando muito bem, como se não tivesse nada aberto ou fazendo transferência. Impressionante a rapidez do sistema! Trabalho vai ser para fechar todas essas janelas e apagara os dois arquivos de 8GB. E olha que a transferência foi rápida também!
Enquanto apago os arquivos estou fazendo o mesmo teste, e nada! Tudo na mais perfeita ordem!

Vou transferir os arquivos e de 8GB, pedir para impressora imprimir um arquivo do pendriver e abrir vários programas.
Como a transferência do do hd para o pendriver é um pouco mais lenta, então ainda aproveitei para modificar as cores da "paredes" do desenho de uma loja que fiz no inkscape.

Resultado: rápido como sempre!

Estou usando Ubuntu 10.04.
apterix
apterix Zumbi Registrado
9.4K Mensagens 171 Curtidas
#39 Por apterix
09/10/2010 - 14:00

Nenhum sistema é vendido para rodar com 20% de carga isso seria um desperdício imenso de recursos em qualquer ambiente.


Diga isso pra Claro e Diveo, por exemplo.


Você tem alguma fonte disso ou esta falando por falar?


Falando por falar, mas todos sabem que o Kernel windows não é modular, mas um misto entre um único aplcativo e 1 zilhão de bibliotecas compartilhadas e estática. No Windows não se tira código, só se adiciona. A conclusão disso é que mesmo o Kernel do Seven tem quase tudo das versões de servidor. O que você não consegue usar são bibliotecas compartilhadas não disponíveis no seven, mas que com hacks tornam-se disponíveis.

Não é a toa que eles mantém um Kernel para mobile e outro para desktop. O kernel windows não foi pensado para ser modular.


O que é alta demanda para você?


Serviços que gerem muitas interrupções de hardware. Se é crítico ou não, não interessa. Alta demanda é quantidade de interrupções realizadas em algum sistema sem considerar prioridade de serviço (qos).


Complexo de inferioridade?


Só não preciso meter um monte de termo de informática para fazer bonito. Sei falar e escrever inglês com certificação de fluência pelo CELIN da UFPR. E mesmo assim sei argumentar sem ficar parecendo o rei da cocada preta.


Empresa nenhuma que se preze vai comprar um servidor para usar ele abaixo de 50%


Hmm... Novamente dou exemplo a Diveo... veja os clientes dela e os contratos desses clientes. =)


Má gerencia, porque se gastou dinheiro demais em um hardware que não esta sendo usado nem perto do seu potencial, que custa mais para operar e que quando se pensa em escalar se precisa de outro hardware o que aumenta os custos operacionais, custo de de administração...


Primeiro, garoto m$-intel, nenhuma empresa que terceiriza TI fica comprando hardware, eles alugam. Segundo, compra-se hardware top de linha com no mínimo gerenciamento elétrico dinâmico, assim como o esquema de paridade de serviços. Não se usa todo o hardware, mantém ele preparado para picos anormais, ele é alugado e não gasta energia proporcionalmente ao potencial dele.

E nunca vão manter servidor de máquina virtual com 80% de uso. Isso denota como você chutou feio. Nenhuma servidora roda máquinas virtuais bem com 80% de uso. E eu tenho certeza disso porque opero de segunda a sexta em máquinas virtuais com excelentes máquinas de excelente hardware topo de linha (xeon derivado do nehalem e os novos opterons x8) e sei o que 80% de uso fazem com o sistema (e olha que estou falando de dezenas de instâncias do kvm, nem estou falando de vmware ou coisa parecida). Imagine um vmware num sistema assim...


Você poderia citar noticias de invasões do site da Microsoft?
Não me recordo de nenhuma, nem de Downtime do Hotmail.
Do MSN eu ate lembro, mas do Hotmail?


MS: Mês passado, em servidores DNS.
Hotmail: Semana passada, mês passado 2x etc.
Foi pior ainda na migração para o Live!, mas estamos falando de downtime e não problemas de software, então nem entrarei no mérito desse ponto.

Como a M$ não é burra ela não deixa todo o seu serviço em único cluster ou sistema. Ela tem esquemas de paridade e divisões de serviços. Quando cai uma parte do sistema, X usuários são afetados. Nunca todo mundo. Igualzinho como ocorre quando o Gmail tem downtime.

Agora o Yahoo então, esse eu quero ver alguém lembrar de downtime. =)


Se chama Windows Azure e tem entre alguns clientes a Pixar.


Pixas > os-x server.


Mas posso dizer que todo mundo no final acaba acessando o cluster de 25 servidores onde estão publicado todas as aplicações da empresa, tudo isso saindo no anel de fibra da Embratel aqui em SP.


Temos fibra com Embratel, GVT, Oi, Claro, SulBBS e NET (isso aqui na UFPR). Estamos nos maiores anéis do país (acho que são 5), que pertencem ao RNP. Temos link internacional dedicado ao RNP, que saí de SP. Se pegássemos o link da embratel e telefônica juntos, hoje, para manter o nosso tráfego, apagaríamos o adsl speedy de SP no mesmo instante e o tal do telefone livre da embratel.

Estou falando de um mirror que atende o mundo inteiro (canonical, debian, sourceforge, parana digital e dezenas de outros sistemas de softwares livres). Amanhã, domingo dia 10, provavelmente geraremos um consumo de uma semana da sua empresa (claro que é um chute, não conheco sua empresa). Amanhã sai o Ubuntu 10.10. Sempre quando isso ocorre, a nossa rede explode por completo.

Acho que os únicos não afetados pela lentidão da nossa rede amanhã são os usuários da GVT, pois ela mantém um par de 2,5gbps com o RNP Sul (pop-pr) onde todos os seus clientes são atendidos por essa "fibrinha". :P
GVT é GVT. =)


O kernel Linux e mais vantajoso em supercomputacao. A Microsoft tem solucoes genericas e caras, que nao se adequam a maioria das necessidades especiais e particulares da supercomputacao.
O fato do codigo do kernel Linux ser completamente aberto acrescenta mais possibilidades e vantagens para seu emprego nesse nicho crescente.


Principalmente por que o kernel linux é modular, é pensado em ser pequeno quando preciso, e ser suficientemente grande quando necessário.


A plataforma usada pela Weta Digital foi uma fazenda de computadores (server farm ou server cluster ou datacenter, como queiram) executando o Ubuntu Linux:

"Ubuntu Linux used in the making of Avatar", em ;

"35,000-Core Ubuntu Farm Renders Avatar", em ;

"Data Center Plays Supporting Role in Avatar", em ;

"Processing AVATAR", ...

Aliás, segundo Marius Nestor, "Hollywood loves Linux", em .



Mas o filme não foi só efeitos especiais e já que você se deu ao trabalho de pesquisar deveria ter procurado sobre o papel da Microsoft na produção do filme.


Não estamos em um tópico falando de aplicações de alto desempenho e alta demanda que é a necessidade procurada procurada por quem quer mais núcleos e mais processadores?

Acho que o colega ilustrou muito bem a capacidade do Linux sob aplicações de utilização de alto desempenho.

E olha que nem tocamos no uso de Linux + GPGPU. Nem comentei nada dos CUDA SDK que trucidam os processadores em cálculo de ponto flutuante e vetoria de n dimensões.


Eu acho uma boa linux ser usado em computadores de grande porte, é um unix gratis, pq não aproveitar ? uma licença de QNX, não sei hoje, mas ja custou U$ 10.000 e é quase mesma coisa.


Isso é mito. Software livre ou, no caso, Linux, não é bom porque é grátis, mas é bom porque foi pensado por gente competente que decidiu o que era bom para um SO.

Ser software livre significa ser aberto e não gratuito. Pode-se cobrar por serviços de software livre sem problema algum e com razão. As pessoas precisam viver.

O assunto aqui não é comparar software livre com proprietário, embora eu brinque muito com o termo "m$". Mas em nenhum momento cai sob a discussão de preços de licenças. Só quero discutir potencial de desempenho vs eficiência na utilização de recursos.


Como seria esse bug na prática? colocar e tirar um simples pendirver não faz nada aqui, agora estou transferindo 8GB do pendriver para o hd e do hd para o pendriver.


Também nunca passei por ele. Uso Ubuntu 10.04 x64 em duas máquinas, e Debian Lenny em algumas máquinas de trabalho. Kernel 2.6.22, 2.6.32-24 e 2.6.35 e não vi isso acontecer ainda.
Bit0N3
Bit0N3 Cyber Highlander Registrado
14.5K Mensagens 3.4K Curtidas
#40 Por Bit0N3
09/10/2010 - 14:07
Alair.com disse:
Eu discordo,das três a única que se aproximou do "conceito Ubuntu" foi o Kurumim,porém era uma distro caseira baseada na boa vontade do Morimoto e por ser uma adaptação brasileira do Debian,ninguém de fora do Brasil ouviu falar,o Mandriva (antigo Mandrake) não vinha com os repositórios configurados por padrão,nada complicado de se resolver,mas suficientemente capaz de "fundir a cabeça" de velhos WinUsers em processo de migração.


bom, não lembro muito do mandrake, ultima vez que usei acho que foi o 7.1 ou algo assim, mas ja vinha se não me engano completo pra qq leigo usar.

pacotes RPM que acho que vinha lá o programa dele de arquivos e tal. se nao me engano ja vinha ate com anaconda naquela época ou um prog equivalente de instalação.

mandriva tinha um vasto repositorio conectiva ate suporte gratis telefonico pra leigo disk help.

kurumin mal cheguei a usar, quando vim saber dele ele ja estava acabando mas acho que tinha ate uns icones que voce clicava e fazia tudo, alias acho que era ate mais facil de mexer que estas distros atuais, foi um trabalho genial o do morimoto, sem querer puxar sardinha pelo forum ser dele.

o que o ubuntu tem a mais que os outros é mkt, e bastante.

alias o kurumin se não me engano era kanopix e nao debian.

o ubuntu que é uma fork do debian.


[]'s
foca
foca Highlander Registrado
12.2K Mensagens 1.1K Curtidas
#41 Por foca
09/10/2010 - 15:58
apterix disse:


Falando por falar, mas todos sabem que o Kernel windows não é modular, mas um misto entre um único aplcativo e 1 zilhão de bibliotecas compartilhadas e estática. No Windows não se tira código, só se adiciona. A conclusão disso é que mesmo o Kernel do Seven tem quase tudo das versões de servidor. O que você não consegue usar são bibliotecas compartilhadas não disponíveis no seven, mas que com hacks tornam-se disponíveis.

O Kernel do Windows é totalmente modular, melhor você parar de falar bobeira e ver o vídeo que postei.
Por sinal do Vista para o XP existe uma diferença imensa entre os Kernel, e como se o Kernel do Linux, AIX e sistemas do tipo fosse totalmente reescrito a cada versão, tem coisa no código do Linux atual que vem do Linux de 1991.


Não é a toa que eles mantém um Kernel para mobile e outro para desktop. O kernel windows não foi pensado para ser modular.

Pelo jeito você estudou a fundo o kernel do Windows para tecer esse comentário né?
Deveria saber que diferente do Linux o Kernel do Windows é hibrido e não monolitico, existe serviços e drivers que atuam sobre o Kernel, mas o Kernel mesmo é minusculo, o Kernel do Windows 7 tem pouco mais de 25MB de tamanho em disco e usa 48MB de memória RAM.

Só não preciso meter um monte de termo de informática para fazer bonito. Sei falar e escrever inglês com certificação de fluência pelo CELIN da UFPR. E mesmo assim sei argumentar sem ficar parecendo o rei da cocada preta.

Entendo.
Quer dizer que falar Capacity Planning faz alguém aqui se sentir inferior?



Hmm... Novamente dou exemplo a Diveo... veja os clientes dela e os contratos desses clientes. =)

A empreiteira em questão é cliente da Diveo.


Primeiro, garoto m$-intel, nenhuma empresa que terceiriza TI fica comprando hardware, eles alugam. Segundo, compra-se hardware top de linha com no mínimo gerenciamento elétrico dinâmico, assim como o esquema de paridade de serviços. Não se usa todo o hardware, mantém ele preparado para picos anormais, ele é alugado e não gasta energia proporcionalmente ao potencial dele.

Isso vai de empresa nas que eu atuei todas preferem comprar o HW e manter um contrato de serviço para o mesmo e alugar o HW no DC reserva.
E existe vários níveis de terceirização de TI, algumas empresas terceirizam apenas o desenvolvimento, outras o monitoramento ativo, outras todas as áreas que interagem com o usuário, outras terceirizam tudo e mantém apenas uma equipe de projetos de TI.



E nunca vão manter servidor de máquina virtual com 80% de uso. Isso denota como você chutou feio. Nenhuma servidora roda máquinas virtuais bem com 80% de uso. E eu tenho certeza disso porque opero de segunda a sexta em máquinas virtuais com excelentes máquinas de excelente hardware topo de linha (xeon derivado do nehalem e os novos opterons x8) e sei o que 80% de uso fazem com o sistema (e olha que estou falando de dezenas de instâncias do kvm, nem estou falando de vmware ou coisa parecida). Imagine um vmware num sistema assim...

http://yfrog.com/8bdsc00505yj
Esse era uma parte do DC de uma empresa que trabalhei, não sei sobre o KVM, mas sei que o VMWARE e o Hyper-V diminuíram esse DC de 216 servidores físicos para 40 servidores, sendo que 15 era porque não podiam ser virtualizados (Ou porque são RISC ou porque precisam de interface direta com HW especifico).
Tudo em Hardware de ponta.
http://yfrog.com/2qdsc00468fj
Os servidores menores são HP 380G6 Dual Quad-Core Nehalem com 64GB de RAM (32GB depois de feito paridade na RAM) e o maior é um HP580G5 Quad Hexa-Core Xeon 7400 Dunnington com 128GB de RAM (64GB após a paridade), ao todo foram comprados 25 380G6 e 3 580G5 para esse DC.
Todo o sistema de disco estava mantido em uma HP EVA 8400 (O último rack da primeira foto) e tudo foi replicado no DC de uma parceira, onde foi usada a versão blade dos hardwares/
Cada servidor HP380G6 virtualizou algo em torno de 12 servidores, sendo inclusive virtualizado alguns servidores HP380G5.
O Farm Citrix de 30 servidores foi virtualizado nas 2 580G5.
Não sei seu ambiente, mas sei que nesse e em outros que eu vi e atuei a média para servidores é de 65% de uso.
Antes da migração esse DC tinha mais de 200 servidores indo desde uns 3 Pentium antigos ate os HP380G5 com Xeon arquitetura Core, passando por RISC IBM e alguns brinquedos DEC antigos.
Tinha servidor ate no chão, em cima dos racks (Literalmente).
Feito a migração passou a ter 10 racks e no máximo 6 servidores por rack, como alguns servidores antigos foram mantidos e alguns deles ainda era no formato Desk foi o melhor jeito.

Por sinal o VMWARE me dizia ate que com o HW que eu tinha e a demanda que eu estava tendo em quanto tempo eu teria que adicionar um novo servidor ou adicionar mais memória o prazo no nosso ambiente a 70% de uso dava 31 meses com os servidores que tínhamos.
Lembrando que para a VMWARE o uso de CPU de um Host só se torna problema se por longos periodos de tempo for maior que 82% e que o ideal é manter entre 50% e 60% para ter o ROI do investimento.



MS: Mês passado, em servidores DNS.
Hotmail: Semana passada, mês passado 2x etc.
Foi pior ainda na migração para o Live!, mas estamos falando de downtime e não problemas de software, então nem entrarei no mérito desse ponto.

Você tem o link porque eu não lembro disso e nem lembro de ter lido, lembro que o MSN parou, mas não o Hotmail.


Temos fibra com Embratel, GVT, Oi, Claro, SulBBS e NET (isso aqui na UFPR). Estamos nos maiores anéis do país (acho que são 5), que pertencem ao RNP. Temos link internacional dedicado ao RNP, que saí de SP. Se pegássemos o link da embratel e telefônica juntos, hoje, para manter o nosso tráfego, apagaríamos o adsl speedy de SP no mesmo instante e o tal do telefone livre da embratel.

Como se precisasse de vocês para apagar o link ADSL do Speedy.
Se 20 pessoas resolver fazer download ao mesmo tempo o link dela já vai para o saco.


Estou falando de um mirror que atende o mundo inteiro (canonical, debian, sourceforge, parana digital e dezenas de outros sistemas de softwares livres). Amanhã, domingo dia 10, provavelmente geraremos um consumo de uma semana da sua empresa (claro que é um chute, não conheco sua empresa). Amanhã sai o Ubuntu 10.10. Sempre quando isso ocorre, a nossa rede explode por completo.

Certo, mas o que isso prova?
Eu poderia dizer que o faturamento da empresa que eu atuei como consultor é maior do que o PIB da cidade de Londrina, mas isso não quer dizer nada para a argumentação é só jogar um número para apelar para algo superior.
O que saber o quanto vai ser usado do link ajuda em alguma coisa?
O que saber que a empresa que eu atuo tem um faturamento maior que muito estado brasileiro vai adicionar?

Vamos chegar a um ponto aqui.
Linux esta certificado para usar processador de até 48 núcleos, isso é bom, mas não é a maior novidade do mundo, o Windows já é certificado para rodar em até 256 núcleos desde a versão R2, isso é um fato que o engenheiro do Kernel Mark Russinovich explicou em detalhes e a Microsoft já demonstrou tanto teoricamente quando na prática, outros sistemas como o AIX e Solaris também suportam quantidade superior de núcleos por CPU.

Isso quer dizer que o Linux é ruim?
Não, só quer dizer que outros sistemas resolveram se preparar por um periodo maior, se em 2012 lançarem uma CPU com 256 núcleos a Microsoft não precisa lançar outra versão do Windows ou refazer essa parte para a nova versão porque o sistema já suporta isto.

Como você não parece disposto a ver o vídeo, irei resumir (Com a possivel omissão de alguma coisa que eu não lembro) o que foi feito, anteriormente no Windows para cada socket de CPU ele usava um bit de 0 ate 31 para falar para o Windows qual era a ID da CPU e por isso o Windows era limitado a 32 sockets, quando saiu a versão 64-Bit do Windows esse limite dobrou para Sockets de 0 até 63, em ambos os casos existia um limite de núcleos por socket que vinha desde o NT quando se achava que um sistema de 32 vias era o máximo que uma pessoa iria ter então o limite do Windows era 32 núcleos por socket. No 2008R2 e no Seven o time de engenheiros do kernel tirou esse bloqueio e aumentou até 256 núcleos por CPU.

Antigamente os supercomputadores vetoriais tinham milhares de CPUs e todo o sistema escrito do zero, hoje é mais facil montar GRIDS que são mais baratos e simples de montar e pode se usar HW e SW commoditie ao invés de ter que desenvolver tudo.

Você falou que o Windows não gerencia nem um Quad-Core direito, isso não é verdade e você não conseguiu nada para referenciar sua argumentação, sendo você do meio acadêmico deveria saber que sem fontes fica difícil validar a credibilidade/veracidade de alguma coisa.


Opa agora eu vi uma coisa e você tem razão, na minha argumentação eu coloquei que os sistemas são dimensionados para trabalhar a 90% de carga durante 100% do tempo, quando na verdade é 60% de carga, 80% de carga é o parâmetro que usamos para saber que se deve ou não adquirir um novo host.
Erro honesto foi falha de digitação.
angeloshimabuko
angeloshimab... Veterano Registrado
933 Mensagens 67 Curtidas
#43 Por angeloshimab...
11/10/2010 - 13:05
foca disse:
Sim e eu mesmo afirmei isso na minha mensagem sobre o papel do Linux na renderização.
Mas o filme não foi só efeitos especiais e já que você se deu ao trabalho de pesquisar deveria ter procurado sobre o papel da Microsoft na produção do filme.
http://www.beingmanan.com/wp/2010/06/avatar-microsoft-gaia/
http://www.microsoft.com/microsoftservices/en/us/article_Microsoft_Role_In_Avatar.aspx


1) O sucesso do filme deveu-se principalmente aos efeitos especiais -- alguém duvida disso? Os três prêmios da Academia ("Oscar") que o filme ganhou referem-se à parte técnica: (i) direção de arte; (ii) cinematografia; (iii) efeitos visuais. O próprio James Cameron considerou a importância dos efeitos visuais (http://www.hollywoodreporter.com/hr/content_display/film/news/e3i1c5a3d24ccc0c11be5f736c8e625bd90):
...Saying the production process is similar to creating an animated film, Cameron estimated that the finished film will be 60% CG elements and 40% live action...
2) O papel da Microsoft decorre diretamente da produção dos efeitos especiais, e você mesmo fez o seguinte comentário:

foca disse:
... Os sistemas da Microsoft armazenaram online mais de 1PB de dados gerados na produção do filme na plataforma Azure, os dados ficavam a disposição das equipes assim que eram renderizados.
O Linux renderizava uma cena, ela então era digitalizada pela plataforma Microsoft e colocada online para ser analisada e trabalhada.


3) Segundo o texto do link citado por você (http://www.microsoft.com/microsoftservices/en/us/article_Microsoft_Role_In_Avatar.aspx), a Microsoft fez o gerenciamento de ativos digitais (DAM -- Digital Asset Management), servindo como concentrador (hub) para os dados gerados na produção:

...The acknowledgement is for what Cameron and Lightstorm dubbed Gaia, the Digital Asset Management (DAM) system that served as the hub for all the digital content and metadata generated during the production...
4) Essa contribuição também é anotada na Wikipédia anglófana (http://en.wikipedia.org/wiki/Avatar_%282009_film%29#Visual_effects), na seção de efeitos visuais.

5) A importância do papel da Microsoft como sugerido é questionável. A MS às vezes aumenta a importância dos seus produtos. Note-se, em relação aos dois links indicados sobre a participação da MS, que um é dela mesma, e o outro é de um profissional que divulga produtos da MS. Armand Niculescu (http://www.twin-pixels.com/the-making-of-avatar-some-juicy-details/; http://www.twin-pixels.com/software-used-making-of-avatar/), Daniel Terdiman (http://news.cnet.com/8301-13772_3-10444621-52.html) e a própria Wiki-en dão uma visão mais imparcial (pelo menos no meu entender -- posso estar equivocado).

6) O armazenamento dos dados processados (entre 1 TiB e 3 TiB, dependendo da fonte) não foi feito em nuvem, mas localmente:

"All the gear sits tightly packed and connected by multiple 10-gigabit network links. “We need to stack the gear closely to get the bandwidth we need for our visual effects, and, because the data flows are so great, the storage has to be local,” says Paul Gunn, Weta’s data center systems administrator." (http://www.information-management.com/newsletters/avatar_data_processing-10016774-1.html?pg=1).

7) O sistema de armazenamento consistiu de um cluster Titan da BluArc (http://www.bluearc.com/html/blueviews/shmuel), cuja interface com o cluster de processamento (4000 módulos -- blades -- HP BL2x220c)) foi feito por uma rede 10Gbps (hardware) e um sistema NetApp FlexCache (http://www.netapp.com/us/company/news/news-rel-20100203.html).

8) O Armand Niculesu (já citado) tem outro texto descrevendo alguns detalhes da produção: http://www.twin-pixels.com/the-making-of-avatar-some-juicy-details/.

9) A importância da Weta Digital (de Peter Jackson -- o supervisor sênior dos efeitos visuais foi Joe Letteri), com a relevante participação da Industrial Light & Magic (de George Lucas) é mostrada em vários artigos: (i) a Wiki-en; (ii) no texto de "The Hollywood Reporter", cujo link foi indicado no parágrafo (1); (iii) por Armand Niculescu (v. parágrafo anterior), que mostra o papel da principais empresas envolvidas, com destaque para a ILM; (iv) pelo "Oscar" de efeitos visuais; (vi) neste artigo da CNET News: http://news.cnet.com/8301-13772_3-10444621-52.html; (vii) http://www.datacenterknowledge.com/archives/2009/12/22/the-data-crunching-powerhouse-behind-avatar/.
© 1999-2024 Hardware.com.br. Todos os direitos reservados.
Imagem do Modal