Logo Hardware.com.br

Placas de Vídeo (VGA) e 3D

Sala destinada para questões e informações sobre placas de vídeo e 3D: instalação, drivers, configurações, desempenho, resolução, conexões, acessórios e lançamentos.

0
8

Alerta aos usuários de placas Nvidia: novo driver (296.10) causando problemas

Boa tarde.
Estou vindo aqui para alertar os colegas do fórum sobre um problema que tá azucrinando os usuários de gráficas Nvidia.

Antes que venham "ah no meu nunca deu, no de fulano nunca deu, então é fake, inútil", por favor: se não deu no seu, ótimo, parabéns, vai ganhar uma estrelinha.

O tópico é direcionado para quem quer estar informado sobre a possibilidade de acontecer no seus PCs e até para quem tá aí se descabelando sem saber o motivo de um problema esquisito no PC.

Historinha que pode ser ignorada:

Estava com o driver 295.73 feliz a jogar e overclockar meu sistema. Eis que atualizo o driver para a ultima versão até o momento: 296.10.
O computador se comportou bem, não apresentava problemas, nada fora do normal.

Até três dias atrás quando o computador começou a apresentar artefatos e uma tela rosa, toda rosa. Pensei "puxa, meu over deve estar degradando a vga... vou tirar". E tirei. E mais tarde, mais uma tela rosa. A tela rosa sempre é seguida de uma piscada de tela e, após a piscada a tela volta ao normal com um aviso, uma exclamação, ao lado do relógio.

E foi assim até ontem, quando a coisa ficou mais séria, o pc travava com a tela rosa, artefatos sem nem existir peso aplicado a placa de video. Detalhe: nesse meio tempo fiz tudo, desde passar borracha na vga e memórias, até tirar tudo de dentro do PC, limpar, verificar se não haviam componentes danificados.
Nada resolveu. Parecia que a VGA estava morrendo.

Essa é a história.


Ontem, um colega meu começou a apresentar problemas semelhantes após três dias de uso deste mesmo driver.

Fui para o Google buscar auxílio e...

http://area.autodesk.com/forum/autodesk-3ds-max/autodesk-3ds-max--3ds-max-design-2012/3ds-max-2012-and-nvidia-drivers-29610---purple-screen-of-death/

http://forums.whirlpool.net.au/archive/1874313
http://forums.nvidia.com/index.php?showtopic=225437
http://forum.ixbt.com/topic.cgi?id=10:58368-40#1353
http://forums.nvidia.com/index.php?showtopic=222815
http://www.cyberforum.ru/videocards/thread519381.html
http://forums.overclockers.co.uk/showthread.php?p=21525257
http://forums.guru3d.com/showthread.php?p=4271135


E tem mais. Basta ir no Google e digitar "Nvidia 296.10 pink" ou "Nvidia PSOD" ou "Nvidia 296.10 PSOD".

Enfim. Já ví dois relatos de gente que teve inclusive a placa danificada permanentemente. Uma GTX 560TI e uma GTX 260. Isso só nesta busca superficial.

Até o momento, estou usando o driver anterior, 295,73, sem problemas.

Então fica ai o aviso para aqueles que não desejam correr riscos. Precaução nunca é demais, ainda mais se tratando de drivers da Nvidia, que vem decaindo em qualidade. Coisa estranha visto que até certo tempo atrás os drivers dela eram os melhores e mais estáveis, em comparação direta com os da concorrente.

Abraços.
7

Tutorial - vendo temperatura e consumo de memória durante o jogo com o Riva Tuner

Pessoal, este é um tutorial que aprendi a fazer faz um tempo, e como a maioria deve ignorar essa ótima função do Riva Tuner, estou postando ele completo por aqui. Com essa configuração, durante o jogo, aparecerá na tela dados de temperatura e consumo de memória do pc, muito úteis para diagnosticar aquecimento excessivo da vga (GPU) ou falta de memória, seja a total do micro, seja a memória de vídeo (da própria vga).

Demonstrarei aqui como ativar o sensor de temperatura da GPU, consumo de memória do sistema todo e consumo de memória gráfica (de vídeo).

Primeiro é necessário baixar e instalar o Riva Tuner, disponível em vários sites. Ex:
RivaTuner download

Uma vez instalado o programa, vamos às configurações:

Primeiramente é necessário configurá-lo para iniciar com o Windows, para que tudo funcione corretamente. Para isso vá até a aba Settings, e marque a opção Run at Windows startup:

Imagem

Após, volte à aba Main e clique na aba Customize:

Imagem

Clique na opção Hardware Monitoring (lupa):

Imagem

Clique no botão vermelho no canto esquerdo da tela, deixando-o marcado, e depois clique em Setup:

Imagem

Entre na opção Plugins:

Imagem

Após, marque todos os plugins:

Imagem

Agora iremos selecionar o que queremos que apareça na tela do jogo. Selecione a opção Core temperature e em seguida clique em Setup:

Imagem

Marque a opção Show core temperature in on-screen display, e após clique em Run Server:

Imagem

Faça o mesmo com as opções Physical memory usage e Videomemory usage.

Você pode ainda selecionar outras opções para aparecerem no display. Eu sugeri as três acima por achá-las as mais úteis.

Feitas essas últimas opções, você notará que terão dois ícones do Riva Tuner ao lado do relógio, sendo um deles com uma seta verde:

125c22ee2361c51253c7b10d313bf879

Clique com o botão direito do mouse em cima do ícone com a seta verde, e selecione Setup. Após, marque as opções de configuração e iniciar com o Windows, conforme mostrado na imagem abaixo:

Imagem

Para mudar a cor do display, basta clicar em cima da cor, conforme mostrado na imagem acima, e escolher a sua cor favorita. Eu recomendo o amarelho escuro, pois fica visível em quase todos os cenários dos games, mas isso varia conforme o gosto do usuário.

Prontinho. Agora basta reiniciar o Windows.

Reiniciado o sistema, basta verificar se os dois ícones do Riva Tuner continuam ao lado do relógio. Inicie algum jogo e veja se deu certo. O display deverá ficar como na imagem abaixo:

Imagem

Lembrando que para aparecer a temperatura da GPU a vga tem que ter sensor de temperatura. Em vgas sem sensor isso não é possível.

Para ajeitar em que ponto da tela quer os indicadores, basta ir no ícone de estatísticas, clicar com o botão direito do mouse, e selecionar setup. Em seguida altere os valores x-coord (para mover os indicadores na horizontal) e y-coord (para movê-los na vertical). Não vou indicar valores fixos, pois eles variam conforme a resolução utilizada pelo usuário.

O Riva Tuner não tira screenshots. Para essa função recomendo o programa Print Screen Replacement (dica do colega Night Rider). O programa é gratuito e tira screens constando as medições do Riva Tuner.
Download: Print Screen Replacement

Este tutorial foi feito com base no Windows XP. No Windows Vista a opção videomemory usage não habilita (não sei o motivo).

Caso prefiram, habilitem a opção Framerate para mostrar na tela. Ela é detalhada, e mostra inclusive qual o directx usado no jogo (D3D9: DX9, D3D10: DX10 etc). Imagem:

Imagem

O indicador de temperatura da cpu (processador) pode não funcionar corretamente. Aqui nunca funcionou, e sempre mostrou como N/A. Então não estranhem se isso acontecer.

A partir da versão 2.22 do Riva Tuner, o painel do server de estatísticas mudou e ficou mais incrementado. Confiram:

Imagem

Para ver outras informações, como temperatura da cpu, chipset, hds etc, é preciso ter instalado o programa Everest, juntamente com o Riva Tuner. Veja como compartilhar essas informações entre o Everest e o Riva Tuner:

Abra o Everest e vá em Preferências:

Imagem

Depois vá em Aplicações externas, e marque a opção Habilita memória compartilhada, bem como marque todos os itens do sistema:

Imagem

Prontinho, o Everest e o Riva Tuner estarão compartilhando informações. O passo seguinte é repetir no setup do Riva Tuner as mesmas marcações já feitas para mostrar a temperatura da gpu e consumo de memória, selecionando os itens e mandando exibir no OSB.

Exemplo:

Imagem

Imagem

Imagem de como fica durante o game:

Imagem

Créditos ao colega LeBaldi, que ensinou como habilitar o compartilhamento entre o Everest e o Riva Tuner neste tópico: http://adrenaline.com.br/forum/placas-de-video/237617-tutorial-visualizando-info-ingame.html

Espero que a dica seja útil aos colegas gamers. Sei que muitos já conhecem essa função, mas criei o tutorial pensando nos que não conhecem, pois sem um passo a passo é difícil descobrir como fazer isso sozinho. wink.png
5

GF8: Especificações finalizadas. lol

Atualização com as specs finais da família GeForce8.

GF8 introduziu o PC em novembro de 2006 na era Vista-DX10, com abordagem multithread do GPU e CPU e com arquitetura unificada de processamento gráfico.
G80 é um High-End GPU composto de 2 peças: GPU 681M+DAC-CPU 70M, no total de 751 milhões de transistores litografados em 90nm. Em conjunto o core usa uma área de 5cm quadrados de silício, sendo o maior chip para uso doméstico já criado.
Para ele foram desenvolvidos 2 PCBs, um com 1 conector 6-pinos de 23cm e 150W de máxima potencia que abriga a 8800GTS(140W) e Quadro FX4600 e outro de 26.4cm com 2 (225W) para a GTX(140W), que pode abriga versões mais potentes de 171W: 8800Ultra e Quadro FX5600(variante do PCB). O core principal é coberto por IHS protetor:
G84 é o Mid-End GPU formado por 289M de transistores litografados em 80nm, pouco mais que o G71 da 7900GTX (278M). Para ele foram criados 2 PCBs, um sem conector extra de para abrigar a 8600GT(43W) e um com conector adicional para abrigar a 8600GTS(71W) ou modelos maiores.
G86 é o Low-End GPU com 210M de transistores em 80nm, consideravelmente mais que o G73 da 7600GT de 170M. Para ele existem 2 variantes de PCB com: 8500GT(40W) e 8400GS(40W).
G92 é um High-End GPU que passou a geração 8 para o processo de 65nm. Ele passou a conter numa unica peça mais transistores que o G80, 754 milhões, numero só ultrapassado pelo Quad Penryn. Para ele por enquanto existem 3 variantes montadas num PCB com dissipação termica de 105W, de mesmas proporções da 8800GTS, também com apenas 1 conector de energia, mas diferenciando-se das demais high-end por ter um cooler padrão que ocupa o espaço de um slot. G92 também é esperado ser usado na série 9 sob a nova nomenclatura D9.

Confira os modelos de GF8 disponíveis pro consumidor final: (Não inclusos modelos OEM, Quadro, Mobile e variantes personalizadas de cada fabricante).
ImagemImagemImagemImagemImagem
ImagemImagemImagemImagemImagem


Guia para uso da GF8. Se vc está com dificuldades, leia.
Imagem


Nova arquitetura totalmente diferente da anterior:

GF8 usa uma arquitetura totalmente unificada e atende todas as especificações do directX10, a ponto de acabar com os conceitos usados até a geração passada de forma radical.
Antes de tudo, entenda o que são shaders unificados e arquitetura unificada.
Da mesma forma que o DX9, o DX10 estipula o pixel shader e o vertex shader e introduz o geometry shader (aplicado a grupos de vértices). Aplicar o Shader a uma imagem 3D representa a capacidade de mudar a cor de um pixel criado de acordo com um padrão. No DX9, as exigências sobre o pixel shader eram mais abertas, podendo existir diferentes níveis de precisão, enquanto as do vertex shader eram mais restritas. Dessa forma, seria dispendioso criar uma mesma estrutura para calcular os pixels e os vertices, pq ela seria muito complexa.
No DX10, todos os shaders tem o mesmo padrão elevado de exigencias para serem calculados. O DX10 em si não estipula que o hardware terá que usar um mesmo processador para calcular o pixel shader ou o vertex shader, mas torna essa fusão interessante estruturalmente e economicamente. Dessa forma, os fabricantes tenderão a usar shader processors unificados para GPUs DX10.
A arquitetura da nvidia parte para um ponto mais geral ainda. Partindo de uma unidade de processamento que fosse simples, rápida, altamente programável, ela criou o stream processor. Colocando várias dessas unidades juntas, desenvolveu um CPU no qual muitos problemas seriam direcionados(pixel, vertice, shader,fisica,etc). Todas as operações de shader efetuadas nessas unidades em adição a capacidade de serem programadas para executar outras tarefas, criou-se assim a arquitetura unificada. A arquitetura do G80 se assemelha aos conceitos usados no Cell e será a base para os futuros processadores e CPU-GPUs da nVidia, Intel e AMD, onde ao invés de poucos núcleos teremos dezenas de núcleos menores com algum grau de especialidade. Para manter a produção viável em 90nm, a nVidia introduziu o GPU em 2 peças na GF8. Nos futuros GPUs Intel, AMD e nVidia é esperado o aprimoramento dessa técnica para otimizar custos e superar a barreira do 1TF.

Imagem


O G80 possui 2 blocos funcionais. Divididos nesses blocos existem 128 Stream Processors (SP) em sub-blocos de 16. Paralelamente existe o Luminex Engine que corresponde a uma unidade geral de pós tratamento, que engloba as genéricamente designadas "ROPs". Que são 6 gerais com 4 sub-unidades cada (24 no total).
Cada Stream Processor pode trabalhar tanto com pixel, vértice, geometrias, shader, física de jogos, video ou qualquer coisa, visto que são unidades programáveis e podem dinâmicamente alternar sua função entre uma e outra. Eles representam uma evolução em relação ao antigo shader processor. No sistema antigo cada shader processava informações (compenentes do pixel) em grupo, e apesar de ter mais "unidade de processamento por shader", uma instrução sempre aloca todas (o shader) a cada ciclo, mesmo sem que haja necessidade.
Enquanto um Shader processor tipo Vec3+1(r580) ou Vec2+Vec2(G71) tem eficiência de 30-80% na melhor hipótese(piorando qto mais intenso for o uso), G8x pode usufruir de um aproveitamento de 100% dos Flops de seus SPs: dual issue (MADD(2flops)+MUL(1flop))×1350MHz ×128 SPs=518.4 Gigaflops).
Contra esse modelo, as specs do r6xx falam de até 64 shaders 4-way SIMD. Também chamado de 64 x (Vec4+1)="320 unidades acumulativas” ou “320 Stream processor da AMD”. Mas o r600 ou mesmo 670 é totalmente diferente e sua arquitetura não é capaz de competir com o G80.
Fazendo uso de uma implementação do DX10, o Stream Output, cada SP pode realizar ciclos de operações sem precisar transferir os dados na memória (VRAM), graças a um buffer dedicado. E tem arquitetura escalar, dispensando uma operação de shader executar todos os componentes (cor/Z) de cada pixel se apenas uma for necessária. O G8x pode aproveitar todas as vantagens de uma arquitetura mais eficiente (dispensando acessos constantes à memória e processos inúteis, e liberando banda de memória) e unificada, capaz de se adaptar as solicitações para um melhor desempenho.
Nem tanto do aumento da capacidade de ponto flutuante (o dobro do G71), mas da eficiência da arquitetura em aproveitar esse poder que permite que a 8800GTX seja 3 a 4 vezes superior que a 7900GTX, com diferença aumentando qto mais complexo fica o jogo em geometria e shaders. Na maioria dos jogos atuais não existe sequer escalonamento de performance em diferentes resoluções, com filtros ou entre a GTX e GTS ou entre o SLI, porque os jogos são completamente CPU dependentes ou limitados pela quantidade de VRAM em alguns com texturas muito grandes.
Ele é capaz de gerar 64 pixels/clock por referência (64 texture units), de onde vem o fill rate de 36.8 Gtextels bilineares/pixel/s, contra apenas 24 pixels da 7900GTX e 16pixels da X1950XTX. No G80 existem 2 unidades de texturização para uma de endereçamento. Apesar de haver 32 efetivas de saida, essa abordagem permite 2 operações por pixel em cada ciclo de clock. Por exemplo 2xAF é free no G80. Nos demais chips o menor tamanho permitiu retornar ao modo classico de 1:1 de proporção. Cada metodo tem vantagens e desvantagens.
Para gerenciar o poder de multiprocessamento de 128 threads simultâneas, independentes, sem perda de performance (graças ao stream output), numa cadencia de milhões em sequência, foi criada a tecnologia GigaThread.

"Mas como o G80 trabalha em 1350Mhz em 90nm?, sendo que o G71 só alcança 650Mhz ...isso só pode ser balela"...
Felizmente não é. O G80 representa um passo adiante na criação de chips gráficos. Ele foi refinado da mesma forma que no desenvolvimento de CPUs, que associado a arquitetura escalar mais generalizada, menor interferência magnética dos DACs e um segundo gerador de clock, permite que as SP rodem a 1350Mhz. Além disso as 8800 GTS, GTX e ultra tem 3 independentes geradores de clock de memória controlados por driver.
Multiplos dominios de clock não são novidade, mas pela 1a vez eles operam em clocks diferentes.
Passar de 1Ghz não significa que a nVidia tomou um rumo parecido com a arquitetura netburst da intel que permite ao Pentium4 funcionar em altos clocks. Essa comparação já apareceu em vários locais e é totalmente absurda. Diminuir e simplificar o No de operações por unidade pareceu mais eficiente para o modelo que a nVidia propôs. E aumentar o No de unidades de processamento ao invés de operações por unidade fez com que o gerenciamento de multiplas threads ficasse mais simples e eficiente.
Esse é o primeiro passo em termos de arquitetura para desenvolver o CPU-GPU, uma unidade mista que faça gráfico ao mesmo tempo que opere como uma CPU otimizada em altas frequências e que não seja apenas um "video onboard dentro do CPU". O investimento para desenvolver tal arquitetura ultrapassou os 400 milhões de dolares e vem sendo feito há 4 anos, sendo o dobro do investido para desenvolver o nv40.

A maior novidade vem do Luminex Engine, responsável pelas operações de AA, AF e HDR.
É composto por 6 "ROPs" subdivididas em 24 unidades, podendo ao todo efetuar até 192 operações de pixel/clock (Z) e 96 pixel/clock (cor). Isso a 575Mhz dá uma capacidade de pós tratamento de pixel 4 vezes maior que a 7900GTX.
A nova arquitetura é capaz de realizar texturizações de anisotropia com 16xAF angulo independente e qualidade incomparavelmente superior às gerações passadas(G71 e r580) e as novas Radeons HD2900. G8x resolveu definitivamente o problema de "AF quebrado" que comprometem as demais placas; É capaz de fazer HDR de 128bits, ou HDR de alta precisão (baseado na engine OpenEXR usado na criação dos efeitos da LucasArts) e foi totalmente otimizada pra realizar HDR com AA. Com o HDR de 128bits, o G80 é o primeiro GPU a trabalhar com ponto flutuante de 128 bits de precisão (full precision) em todas as etapas de redenterização.
O trunfo em arquitetura de performance de AA chama-se Coverage Sampled Antialiasing (CVAA). O CVAA é uma nova técnica de AA, evolução em relação ao Multisampling, em que não apenas as operações de texturas e shaders são economizadas, como também as redundâncias de pixel (cor e Z), e com isso existe um grande aumento no desempenho e uma grande economia de banda de memória.
O luminex engine permite, através de uma aplicação muito mais eficiente do Z buffer e Z Culling, que o GPU consiga identificar e remover do processamento todas as partes do cenário tridimensional que não aparecerão na area visível da cena final, antes que elas sejam processadas, ao contrário do G70 e r580.
Desse modo o G80 foi criado tendo em mente trabalhar com efetivos 16XAA, mesmo sob HDR, como se estivesse operando a 4XAA. E com sua gigantesca capacidade de tratamento de pixels, poder operar com 16XAA mesmo sob resoluções de 1920x1200 ou mais.
Além disso os drivers mantem ocultos os modos 16XS e 32XSAA pra single e os modos SLI 8, 16 , 32XAA, além do 64XAA (OpenGL) que podem ser acessados com nHancer.
O G8x mantém o transparency AA(TR-AA) melhorado para multi e supersampling presente nas GF6/7. O TR-AA permite ao G80 fazer AA com certos objetos (tipo folhagens, sombras e gramas de alguns jogos) que ficam sem AA nas demais VGAs. Isso porque num ambiente 3D, as arquiteturas concorrentes são incapazes de aplicar MS em objetos com semitransparência posicionados em seu interior, e as GFs podem aplicar MS ou SP especificamente a esses objetos (esse recurso é exclusivo das GF6/7/8 até então e não tem relação com o adaptativeAA das Radeons).
Essa nova arquitetura foi tão otimizada ao ponto de não exigir aumento da banda de memória com trocentos bits ou GDDR4 a altíssimas frequências pra mostrar um desempenho absurdo, pois o GPU restringe o acesso a memória apenas aos dados realmente necessários e sem redundância.
Contra esse novo modelo, o melhor que a AMD pode oferecer na HD2900 foi 2 a 8xAA incrementado com pós processamento por soft pra criar a impressão de mais AA as custas de imagem borrada. Nada que se compare.
As atuais VGAs já dispõe de banda de memória de ~20 vezes a de um PC tipico AMD 754 com DDR400, sendo a mais alta proporção já atingida. Já era o momento de partir para um uso mais racional dessa banda de memória do que insistir na arquitetura antiga fortemente dependente de acessos à VRAM. Pode-se esperar futuras placas Mid-End com AA+HDR decentemente jogável.
Claro que a princípio nem todo jogo no mercado fará todo o proveito da arquitetura unificada do G80. Mas com drivers mais maduros com otimizações pra cada jogo chegando (101.02 profiles=535) e os futuros titulos saindo, é performance garantida.

A nVidia separou os RAMDACs (conversor digital analógico para monitores analógicos) do GPU e fez um chip dedicado a eles, o NV-I0. Diminuindo consideravelmente a inteferência eletromagnética e permitindo aos shaders processors operarem em altas frequências (+1500MHz); e permitiu elevar a qualidade do sinal e aumentar para 3x10 bits a máxima taxa de cores exibida (demais VGAs é 3x8bits). Por referência até os conectores DVI são de alta qualidade, tentando manter o melhor sinal analógico e imagem presente em VGAs até então.

Em relação a nova controladora de memória: Pelo esquema funcional do G80, adicionado pelas descobertas do criador do rivatuner, o g80 acessa a memória em 6 canais de 64bits e forma os 6x64=384bits com 12 chips 16Mx32 de memória e 768Mb na GTX. Os detalhes de funcionamento da nova controladora e seus potenciais de expansão permanecem em segredo por parte da nVidia (que não discute a fundo os aspectos da arquitetura do G80). Apenas sabe-se que ela é compatível com todos os tipos de GDDR existentes.

Física, GP-GPU e 2D:
A nova geração possui capacidade de ponto flutuante de 520Gigaflops e estreará com drivers incorporando a nova engine física Quantum, que permite que uma VGA use parte desse processamento para os física sem a necessidade de uma segunda VGA, colocando uma concorrência direta a AGEIA. A tecnologia de programação GP-GPU CUDA permitirá que os G8x sejam usados como poderosos e eficientes CPUs em cálculos científicos.
Além da capacidade individual de processamento de física, a GF8 poderá contar com o tripo SLI, a nova modalidade de operação usando 3 slots PCi-E que pode ser ativada nos bios das placas mãe equipadas com o NF680 e 7xxSLI. Os detalhes dessa arquitetura devem sair em breve, mas o SLi Extension, como é chamado, usará o 3o slot presentes na MoBo e usará drivers forceware especiais.

Processamento de Video:
O inicio da disseminação dos formatos de alta definição deu destaque a uma porção pouco comentada do GPU, o video processor VP. Essa porção do chip se encarrega da aceleração de decodificação dos formatos de video existentes. Não depende muito do clock da GPU, é em parte influenciado pela memoria, e sua interface de software é o Purevideo. O driver >97.02 inclui otimizações que permite o G80 placa ultrapassar o desempenho em aceleração do formato H.264 de qualquer VGA previa.
Aliado a melhor qualidade de imagem de alta definição já promovida pela decodificação Purevideo em relação ao AVIVO, coloca um fim a disputa dos formatos de alta definição.
G8x como algumas versões do G7x suporta nativamente o HDCP, que é o novo sistema de proteção do conteúdo digital dos HDDVDs. Desde as GF FX, o HDMI (interface digital de alta velocidade semelhante ao DVI, acrescido de audio) já é totalmente suportado, ao contrário das concorrentes (r520 e 580 não suportam HDMI). Com o estabelecimento das normas para HDDVD, foi possível a implementação do HDCP sobre DVI e HDMI. O HDCP é incorporado então pela simples adição das chaves criptográficas no bios ou em uma ROM acessória para as GPUs que o suportam, ou então é necessário a recorrer a um set completo de ROM + Chips decodificadorres (tipo das soluções da Silicon Image usadas pelas concorrentes). Informações a respeito do HDCP das GF7 e 8 não suportarem "HDCP em 2 vias" pra rodar videos a "1080p do que 720p" ou que o SLI de 8800 não faz "1080i" que apareceram na internet são completamente absurdas.
Nesse review do AnandTech vc pode conferir o uso correto do HDCP com filmes em Bluray protegidos sem qualquer problema na 8800GTX usando um Pioneer com a versão BD do powerDVD. Ao contrário das soluções com implementação à parte que falharam na correta exibição dos filmes, o funcionamento do HDCP na 8800 é perfeito. A presença do conector HDMI não é necessária para o HDCP funcionar. Todas as HDTVs possuem DVI ou HDMI, sendo que a interconversão pode ser feita com adaptadores. O componente audio do HDMI foi criado pensando em diminuir a necessidade de mais cabos nos aparelhos de HDDVD domésticos, mas para o PC que trata o som com saída propria (placa de som ou som onboard), é de pouca utilidade e a implementação fica a cargo do fabricante.
Nesse outro review do AnandTech vc pode conferir a superioridade do purevideo em aceleração do formato H.264. Uma 8800GTX, GTS ou mesmo uma 7900 permite que cpus mais fracas rodem videos 1080P além de impor uma performance muito superior ao concorrente AVIVO.
E finalmente nesse review do AnandTech vc pode ver a superioridade de qualidade de imagem em deinterlace de H.264 do Purevideo em relação ao AVIVO, ficando então a 8800GTX superior tanto em qualidade, compatibilidade e desempenho em video de alta resolução contra qualquer concorrente.

Durante a evolução da arquitetura o VP do G80 sofreu modificações que resultaram no VP2, presente nos G84, G86 e G92. O VP2 trouxe melhorias fantásticas para HD, já que foi acrescido de um bitstream processor e um acelerador de decodificação de conteúdo protegido AACS (AES128). Dessa forma os GPUs mainstream podem fazer decodificação completa do formato H.264, que é o melhor formato para HDDVD e BD. Fazendo com que as 8600, 8500 e futuras 8400 e 8300 possam ter decodificação plena por hardware (<5% de CPU) e vc possa desfrutar de tudo que o melhor formato de alta definição permite mesmo com o CPU mais barato. O novo VP2 faz até das GF8300GS superiores às HD2900 em HD video(que não possuem full decode), além de oferecer melhor qualidade de imagem. Conhecido como MPEG4-part10, AVC ou H.264, esse formato representa o resultado da união dos 2 maiores orgãos de padronização de video, o ITU-T Video Coding Experts Group e o ISO/IEC Moving Picture Experts Group na criação do melhor formato de compressão que permitisse a melhor qualidade de imagem. Muitos confundem o novo padrão com os antigos MPEG, mas ele é definitivamente superior em qualidade aos VC1 e WMV.

As 8800GTX e 8800 Ultra possuem 2 conectores SLI, mas não se trata de um modelo similar ao da Radeon X1950 ou 2900 que precisa de 2 para realizar fluxo de dados em 2 vias. O SLI continua funcionando apenas com 1 conector entre 2 VGAs. O G80 possui melhores otimizações para multiGPU. Em vários testes é possível comprovar eficiência de 100% na associação de 2 GPUs, embora o CPU limite isso em vários casos. Futuramente é esperado que o 2o conector sirva para comunicar entre si as soluções de 3 ou 4 VGAs.

Com relação ao consumo. Um sistema completo de 8800GTX e GTS com NF680i, C2Quad 6700, SLi memory e RAID de 2 discos podem solicitar pico de 30A e 26A nas linhas 12V respectivamente, de onde vem os 450W e 400W. Como cada conector de 6 pinos forcene 75W e o PCI-E 75W, um segundo conector só foi adotado para melhorar a distribuição e garantir maior segurança, pois com 1 apenas ainda estaria dentro das recomendações elétricas.
As recomendações do G80 são iguais as da X1950XTX e 7950GX2. O chip trabalha com apenas 1.25V na 8800GTX no multimetro (contra 1.4V nas 7900GTX e 6800Ultra), o que garante manter um bom patamar de dissipação mesmo com 750 milhões de transistores. Dos relatos de vários usuários, as temperaturas atingidas pelas placas não excedem as atingidas pelas 7900GTX, o que garante a melhor relação performance por Watt que já existiu.
Com uma arquitetura eficiente e um ótimo controle do sistema de refrigeração, as 8800GTX/GTS não solicitam 100% de rotação do fan em nenhuma situação de uso.
Do outro lado, as novas Radeons HD2900 usam um sistema de entrada de conectores 6+8 pinos de 300W de máxima dissipação e 35A sustentados (que só fontes de 600W ou mais e raras de 550W podem suprir), presente apenas nos 1os prototipos da GF8, que faz os usuários de Crossfire sofrerem pra overclocar o CPU de um sistema crossfire, mesmo com uma fonte de 1kW.

Para demonstrar a capacidade da Geração 8, a nVidia preparou um demo baseado em uma mulher real. A modelo e capa da Playboy americana de fev2006, Adrianne Curry apresentará o novo conceito de Reality Redefined que vc pode conferir em movimento agora no site da nVidia.
Imagem




A 8800GTX tem potencial de ser entre 3 e 4x mais rápida que a 7900GTX em aplicações DX9 e possívelmente muito mais eficiente sob DX10. É esperado que alcance +12k 3d06 e +20k 3d05 equipada com o novo NF680i e um kentsfield QX6800 com memos DDR2-1200, sem qualquer overclock.
O poder de aumentar os filtros pra 16xAA a 1600x1200 sem penalidade com certeza será um dos maiores apelos aos gamers. Já é possível possível overclock separado das SPs, ROPs e memórias, sendo mais uma opção interessante aos overclockers. Tal arquitetura que permite que partes do chip operem em frequências diferentes fez estréia nos PCs domésticos com o G70 e atingiu um nível em que só veremos algo semelhante a partir do K10.

Do Anandtech, veja a superioridade do G80 frente ao r600 !

Da mesma forma vc vai ver em DX10: Unreal Tournament 3, Company of heroes 1 e 2, World in Conflict, Call of Juarez, Flight Simulator X, Hellgate: London, EVE, WarRound, BioShock, Age of Conan, Chrome 2, Guild Wars 2, Lost Planet: Extreme Condition, Pt boats ...

ImagemImagem


Os testes com 1 GTX e 2 GTX em SLI em AM2 e C2D podem ser conferidos a partir dessa pagina do tópico:
Podem ter certeza que elas correspondem a arquitetura descrita, rsrsrs


Imagem

Testes com a 8600GTS podem ser encontrados a partir dessa pagina do topico.

Testes com a 8500GT podem ser encontrados nesse topico:

Imagem

E um pequeno guia de uso e overclock da GF8 pode ser achado nessa pagina do topico.

8600 e 8500 são substitutas para 7600 e 7300 de alta qualidade e enorme potencial de overclock para o valor entre U$60-150. Existem modelos 8500 que vem com 250Mhz de over de fabrica sendo vastamente superiores a 7300 ou 7600GS. Enquanto isso as 8600 podem muito bem dar conta das antigas High-End nos jogos bem como custar menos. É inimaginável esperar uma 7900 ou X1900 rodar Prey ou LoastCoast a 16xAA contra a 8600GTS. Pode-se encontrar 8500GT vendida pelo preço de 7300GT, não sendo mais justificável comprar VGAs novas da geração passada a menos que vc queira fazer um mal investimento.
A nova geração GF8 se mostra arquiteturalmente superior as novas placas da extinta ATI, agora AMD, Radeon HD 2xxx e todos os jogos futuros mostrarão isso.
A introdução da 8800Ultra trouxe ainda a revisão A3 do G80, sobre a A2 da 8800GTX, com memórias GDDR3 de 0.8ns, capazes de 2500Mhz nominais. Pelo preço inicial de U$699 será um alto diferencial pra aqueles que querem uma 8800 a 700Mhz core e 2500Mhz mem.
Muitos podem especular se as novas VGAs conseguirão rodar alguma coisa em DX10. Mas a verdade é que se elas não rodarem, não serão as VGAs DX9 que rodarão. Enquanto isso a nova arquitetura dá um passeio em qualquer jogo DX9 ou o que seja...
5

3D Vision - Tudo que vc precisa saber.

Este tópico é destinado a discussões sobre a tecnologia 3d vision, além de seu uso em jogos.




Mas afinal, oque é 3D vision ? (para aqueles que ainda não sabem)


É a solução da nvidia para tornar os jogos realmente 3d, afinal as placas de video ate criam os graficos 3d, mas os mesmos são mostrados em uma tela 2d. O 3D vision cria uma ilusão para aquele usando o sistema, fazendo-o acreditar que esta vendo o jogo realmente em 3d. É como abrir uma janela para outro mundo.


Oque é necessário para usar o 3d vision ?


Imagem


Basicamente você necessita:


- 1 vga da nvidia acima da serie 8xxx (recomendo fortemente algo em torno da gts 250, ja que jogar em 3d dobra o peso do jogo, derrubando seus fps quase pela metade)
- Kit 3d vision composto por um sensor, cabos e 1 oculos de matriz ativa.
- Um monitor "3d" (nada mais são do que monitores, projetores ou tvs possuem uma taxa de refresh real de 120hz.)


para uma lista atualizada dos monitores suportados acesse:


http://www.nvidia.com/object/3d-vision-requirements.html


O monitor mais facil de se encontrar no Brasil hoje é o Samsung 2233rz.
Ele esta em promoção em vários sites, sendo encontrado ja por menos de 500 reais.


aqui ele estava em promoção mas subiu um pouco esta semana

https://www.balaodainformatica.com.br/site/index.asp?prod_id=13893




Como funciona ????



Falarei aqui somento sobre o 3d vision ok ?
Basicamente o sistema ilude seu cérebro. Os drivers fazem a placa de video criar 2 imagens, levemente afastadas uma da outra, como as imagens vistas por seus olhos. As imagens criadas ficam mais ou menos assim.

Imagem

Uploaded with ImageShack.us




As imagens sao mostradas uma de cada vez no monitor.
Aqui vc pode ver as imagens sendo trocadas em slow motion, Primeiro o olho esquerdo e depois o direito.

http://www.youtube.com/watch?v=FAQh6bREFqM


Esta troca rápida de imagens é coordenada com os óculos atravez do sensor 3d vision, assim quando a imagem do olho esquerdo é mostrada os óculos escurecem o olho direito, quando a do olho direito aparece, o oculos escurece o esquerdo.
Para que isso funcione bem sem causar dor de cabeça e essencial que a taxa de atualizacao do monitor seja entre 100 a 120 hz ( oque daria 60 hz para cada olho).
http://pt.wikipedia.org/wiki/Hertz

Quando isto funciona em harmonia ao colocar os oculos uma imagem em 3 dimensoes se forma na sua frente, simplismente fantastico de se ver. Não tem como explicar, so vendo mesmo.


Quais jogos rodam em 3d e o que é possivel regular no 3d ?

Basicamente qualquer jogo em directx pode ser jogado em 3d vision, alguns obviamente rodam melhor devido a sua engine. Os que nao ficam tao bem geralemnte tem poblemas na renderização de sombras, oque pode ser contornado colocando as mesmas em LOW nas opções do jogo.

Existem ainda os jogos que recebem o selo 3d Vision Ready. Estes rodam proximos a perfeição e a experiencia e fantástica neles.
aqui a lista de jogos
http://www.nvidia.com/object/3d-vision-3d-games.html




Quanto a regulagem vc pode mexer em duas coisas, na profundidade e na convergencia, esta ultima é a mais dificil de se entender e regular bem.

- Profundidade

É oque esta para dentro da tela. Quando você a aumenta o mundo dentro da sua tela cria realmente profundidade. Você pode ir de 0% a 100% de prof. Recomendo a quem acabou de comprar usar de 15 a 30 % no máximo e ir subindo aos poucos. Mais do que isso vai te dar alguma dor de cabeca em menos de uma hora. Eu hoje jogo a 80% , e oque mais me agrada.

- Convergência

É o que sai da tela. quando você a aumenta os objetos do jogo que estariam mais proximos da tela chegam proximos ao "vidro"da tela...se continuar aumentando alguns deles chegam a sair da tela, dando a impressão que ficaram antes do vidro, literalmente fora da tela. Não existe indicação na tela de quanta converg. esta setada, isso atrapalha um pouco a regulagem aos iniciantes.

O dificil entender aqui ao menos na primeira semana que vc compra o kit é que profundidade sem a convergencia não é nada. Um anda de mãos dadas com o outro. Se você coloca só prof. o jogo fica legalzinho....mas ao regular certinho a converg tambem a coisa cria vida. O que é necessário entender é que ao mexer em um vc deve mexer no outro tambem, ja que os dois dependem um do outro para dar aquele efeito perfeito.
Esta regulagem é subjetiva por que cada pessoa é única, e a regulagem ideal varia de pessoa para pessoa.


So para exemplificar, um dos meus amigos comprou o kit e ao passar em sua casa pra ver como ele regulou o danado nao tinha ligado a convergencia. Regulei certinho pra ele e o cara enlouqueceu....virou outra coisa.

Portanto se vc adquiriu seu kit agora, use este topico para perguntar sobre a regulagem.




FAQ.


1. Posso usar uma vga ATI junto com nvidia, assim como o pessoal tem usado no physx ?

Não. Neste caso o grafico e feito pela ati e a fisica pela nvidia. Com o 3d vision o grafico deve ser feito pela nvidia, acabando com a necessidade de uma ati.



2. Oculos de cinema funciona no 3d vision ?
Não, eles usam um sistema diferente, de polarização, ja a nvidia usa oculos shutter (matriz ativa)


3. Posso usar uma vga inferior a uma gts 250 para o 3d vision ?

Sim, mas vc deverá reduzir resoluções e qualidade grafica para que seja possivel jogar com fps razoaveis


4. Da pra jogar com monitores com refresh abaixo de 100 hz ?

Não, o sistema 3d vision é travado e nao aceita menos de 100 hz.



bom vou adicionando mais FAQs a medida que o topico crescer.


Ideias para aumenta-lo são bem vindas.
4

Testes com XFX 8500GT Stock @ Over "Em Breve vMod" (Com Muitos Jogos, várias Imagens)

Teste XFX 8500GT (PV-T86J-UAF3 VA.0 W 04/07) 450/400 (DDR2-800)
http://www.xfxforce.com/web/product/listConfigurationDetails.jspa?series=GeForce%26trade%3B+8500&productConfigurationId=1063003
Imagem

"Dados Retirado do site XFX"
]Stream Processors 16
Memory Bandwidth 12.8 GB/sec
Fill Rate
3.6 billion/sec
RAMDACs
400 MHz

Dual Link DVI - Supporting digital output up to 2560x1600
One
Clock rate
450 MHz
Memory Clock
800 MHz
Shader Clock 983 MHz
Chipset GeForce 8500 GT
Memory
256 MB
Bus Type
PCI-E
Memory Type
DDR2
Memory Bus
128 bit
Output
VGA, DVI
Highlighted Features
HDTV ready, SLI ready, TV Out, RoHS


61º full / 53º idle
no mesmo instante que fecha o teste 3D de 61º já cai pra 58º

ImagemImagem

A64 3000+ | ECS Kn1 Extreme | 2x1Gb DDR-500

instalei o COH pra testar

Imagem Imagem

3DMark06
Imagem

----------
Teste de over 450/400 @ 700/520 (DDR2-1040)
66º full / 53º idle

Tutorial Básico de Uso e Overclock da GF8 by El_Sid

Página do VMod em Desenvolvimento


COH 1.0
na mesma configuração que o teste acima
Imagem

COH 1.7
ImagemImagem

CS:Source - Video Stress Test
Imagem
----------- 450/400 --- 700/520
1024x768 -- 123fps ---- 165fps
1280x1024 - 83fps ---- 123fps

3D Mark01---------- 3D Mark03---------- 3D Mark05---------- 3D Mark06
ImagemImagemImagemImagem

Aquamark
Imagem

Lost Planet Dx9
ImagemImagem
800x600 - Snow 39 | Cave 23
1024x768 - Snow 25 | Cave 23

ImagemImagemImagemImagem
ImagemImagemImagemImagem
ImagemImagemImagemImagem
ImagemImagemImagemImagem
ImagemImagemImagemImagem
Imagem

F.E.A.R. - 1.0
Configuração sem mexer em nada, do jeito que veio depois da instalação
ImagemImagemImagem
ImagemImagem


Resultado
Imagem

Na mesma configuração acima mas agora com 16 AF e 4AA
Imagem

Resultado
Imagem


Agora com tudo no Máximo a 16AF / 4AA - 1024x768
Fear 1.0 --------------- Fear 1.8
ImagemImagem

e 16AF / 4AA - 1280x960
Imagem


ImagemImagemImagem
ImagemImagemImagem
Imagem

Flatout 2 (1.2)
Do jeito que instalo sem AA e sem AF em 1024x768 ele faz 85fps cravado, não cai e não aumenta.
Imagem
ImagemImagem
ImagemImagem

e com tudo no máximo a 1024x768 faz 50fps pra cima
Imagem
ImagemImagemImagemImagem
ImagemImagemImagemImagem

GRAW - 1024x768 - High - 8x Anisotropic (é o AF né ?)

Frames, Time (ms), Min, Max, Avg
1903,..... 60000, ... 25,. 39,. 31.717
ImagemImagem

DiRT Demo - Selecionado High @ 690/520/1650

Frames, Time (ms), Min, Max, Avg
1561,.... 120000,... 10,.. 16,. 13.008
ImagemImagem
ImagemImagemImagem

DiRT - 800x600 - Medium @ 695/1400/496
Frames: 2594, Time (ms): 120000, Min: 11, Max: 28, Avg; 21.617
ImagemImagem

NFS: Carbon @ 690/1700/500

Tudo no máximo, @ 1024x768 4xAA
Frames, Time (ms), Min, Max, Avg
2652,.... 120000,... 15,.. 26,.. 22.100
ImagemImagemImagem
ImagemImagemImagem
Imagem

World in Conflict - BETA @ 690/1700/500

Resolution: 1024*768
Detail Level: High
Average fps: 13
Min fps: 9
Max fps: 25
TotalFrames: 488
ImagemImagem
ImagemImagemImagemImagem
ImagemImagemImagemImagem

BattleField 2142 v1.25 @ 690/1700/500

HIGH @ 1024x768 - 2xAA
Frames: 6109, Time (ms): 120000, Min: 33, Max: 79, Avg: 50.908
Imagem
ImagemImagemImagem
ImagemImagem

Unreal Tournament 3 Demo @ 700/1700/500

HIGH @ 1024x768
Shangrila
Frames, Time (ms), Min, Max, Avg
4656, ....120000, ....25, .53, .38.800

Heatray
Frames, Time (ms), Min, Max, Avg
4554, .....120000, ..22, ..58, .37.950

Vehicle CTF

Frames, Time (ms), Min, Max, Avg
4137, ....120000, ...19, ..45, ..34.475

ImagemImagem
ImagemImagem
ImagemImagem

Call of Duty 4 Demo @ 700/1700/500

ImagemImagem

Vários lugares

Frames, Time (ms), Min, Max, Avg
8724, 120000, 43, 158, 72.700

Frames, Time (ms), Min, Max, Avg
8605, 120000, 36, 172, 71.708

Frames, Time (ms), Min, Max, Avg
8948, 120000, 37, 120, 74.567

Frames, Time (ms), Min, Max, Avg
4155, 120000, 16, 65, 34.625

@ 715/1620/520

ImagemImagem

Imagem
Frames, Time (ms), Min, Max, Avg
2723, 120000, 10, 45, 22.692

Imagem
Frames, Time (ms), Min, Max, Avg
3627, 120000, 13, 66, 30.225

Imagem
Frames, Time (ms), Min, Max, Avg
2701, 120000, 9, 45, 22.508

Imagem
Frames, Time (ms), Min, Max, Avg
2408, 120000, 9, 55, 20.067

ImagemImagem
ImagemImagem
Frames, Time (ms), Min, Max, Avg
1734, 120000, 9, 28, 14.450

Need for Speed™ ProStreet @ 690/1550/500

Tudo HIGH rodando a 1024x768 - Menos AA
Frames - 1685 | Time (ms) - 60000 | Min - 21 | Max - 37 | Avg - 28.083

ImagemImagemImagem
ImagemImagem


-------------------------------------------------------

Mais testes dos Usuários com 8500GT


User: DaviF - 8500GT PV-T86J-UAFG V. C1 W 06/07
A64 X2 3800+ | Asus M2N-E Sli | 2x1Gb DDR2-533

INFERNAL

https://www.hardware.com.br/comunidade/8500gt-xfx/738570/13.html#post3059570

1024x768 AA4x AF8X CP
In-game Very High
Frames, Time (ms), Min, Max, Avg
9830, 120000, 37, 113, 81.917
ImagemImagem

NFS: Carbon
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/12.html#post3058272

1024x768 - 4xAA 8xAF no CP, e tudo full menos Shader no jogo
Frames, Time (ms), Min, Max, Avg
3522, 120000, 21, 35, 27.683
Imagem

https://www.hardware.com.br/comunidade/8500gt-xfx/738570/21.html#post3088931

1280x1024 - tudo high, AA2x, Anisotropic, Shader medium @ 675/510/1350
Frames, Time (ms), Min, Max, Avg
2140, 120000, 22, 26, 23.545
ImagemImagem

GTR 2
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/13.html#post3060569

1024x768 - AA4x AF16x @ 675/1350/520
Frames, Time (ms), Min, Max, Avg
13715, 120000, 80, 138, 114.292
ImagemImagem

FarCry 1.4
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/15.html#post3067520

1024x768 - Very High + HDRx7 @ 675/510
Frames, Time (ms), Min, Max, Avg
7020, 120000, 46, 80, 58.500
ImagemImagem

GRAW2
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/23.html#post3095416

1024x768 - High
Frames, Time (ms), Min, Max, Avg
3050, 120000, 19, 36, 25.417
ImagemImagem

Lost Planet
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/23.html#post3101446

Frames, Time (ms), Min, Max, Avg
2962, 120000, 16, 39, 25.683
ImagemImagem

R6: Vegas
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/24.html#post3112184

Frames, Time (ms), Min, Max, Avg
3239, 120000, 19, 45, 26.992
AA2x e AF8x pelo CP
ImagemImagem

-------------------------------------------------------

User: Rafael Simões - 8500GT PV-T86J-UAF3 VA.0 W 04/07
A64 3200+ | GA-K8N-SLi | 1,5Gb DDR


R6: Vegas e Test Drive Unlimited

https://www.hardware.com.br/comunidade/8500gt-xfx/738570/12.html#post3059328
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/19.html#post3076455

-R6: Vegas
Frames: 3755 - Time: 132701ms - Avg: 28.296 - Min: 13 - Max: 63
AA2x AF4x (nVidia CP)
ImagemImagem

-Test Drive Unlimited
Frames: 6245 - Time: 205176ms - Avg: 30.437 - Min: 16 - Max: 49
AA2x AF4x (nVidia CP) HDR + 800x600 + High Details
ImagemImagem

The Godfather: The Game
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/29.html#post3201173

Frames: 20113 - Time: 681645ms - Avg: 29.507 - Min: 0 - Max: 31
ImagemImagem



Call of Duty 4 Demo
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/36.html#post3280282

Frames: 26114 - Time: 754566ms - Avg: 34.608 - Min: 0 - Max: 555
ImagemImagem

-------------------------------------------------------

User: NoM$_YesLinux - 8500GT PV-T86J-UAF3 VA.0 W 04/07
S64 3000+| C51GM-M | 1Gb DDR2-667

Virtua Tenis 3 e Batlefield 2
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/17.html#post3070570

- Virtua Tenis 3 @ 675/450
Frames: 7188 - Time: 120000ms - Avg: 59.900 - Min: 52 - Max: 62
Imagem

- Battlefield 2 @ 650/450
Frames: 3982 - Time: 120000ms - Avg: 33.183 - Min: 0 - Max: 78
ImagemImagem

Age of Empires III
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/17.html#post3071966

Frames: 2567 - Time: 120000ms - Avg: 21.392 - Min: 2 - Max: 34
ImagemImagem

GTA San Andreas @ 675/500 - WinXP 64-bit
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/21.html#post3085576

Frames: 8227 - Time: 120000ms - Avg: 68.558 - Min: 26 - Max: 124
ImagemImagem


NFS: Underground 2
https://www.hardware.com.br/comunidade/8500gt-xfx/738570/22.html#post3093553


Frames: 4104 - Time: 120000ms - Avg: 34.200 - Min: 23 - Max: 42
ImagemImagem

-------------------------------------------------------

Depois posto mais testes.

Thanks to ImageShack for Free Image Hosting

[]'s bom_trabalho.gif
4

Desliga vídeo sozinho

Eae rapaziada, então. 
Comprei um computador recentemente e desde que eu instalei a versão adrenalin edition da AMD, meu computador começou a desligar sozinho, e quando reinicia, o áudio buga, tenho que desligar o pc da tomada e esperar um tempinho pra ele voltar ao normal.
Isso já ta me dando raiva e agonia, porque eu ja fiz de tudo pra tentar resolver (Fonte, memória, atualização de bios)
Config: Ryzen 4600G
A520M HVS
2x8 Lexar ddr4

Por favor, algm tem uma hipótese do que pode ser, caso o erro continue, irei formatar ele, pra ver se resolver.
4
4
4

Teste: Evercool Turbo 2 VGA Cooler "Lapidado"

Salve!

Como minha nova VGA (XFX GF 8600 GT XXX Edition 256mb) estava aquecendo um pouco demais pro meu gosto, chegando a 80°C em full, daa.png resolvi trocar por um cooler melhor e apos pesquisar e com a recomendação do pessoal aqui do Forum, comprei um Evercool Turbo2.

Desmontando-a, ela é assim:

Imagem

Percebi que as aletas do dissipador são bem finas e faceis de se entortar, mas até ai nada de mais:

Imagem

Mas acontece que logo quando abri a embalagem notei que a base do cooler era bem tosca e aspera, me_espantei.png então pensei, acho melhor dar uma "lapidada" nisso aqui...
A principio passei uma palha de aço, daquela marca mesmo, pra ver se melhorava, e ficou assim, não muito melhor mas mais liso:

Imagem

Ainda insatisfeito, usei umas lixa d'agua, dois tipos, uma média e outra bem fina (1200) e consegui apos uns 35 mins. lixando um efeito "espelho"... no inicio não dava pra ver nada refletido nele: bom_trabalho.gif

Imagem

Feito isso, só falta instalar o cooler... então retirei o cooler original da placa, o que é bem facil...
A placa sem cooler:

Imagem

O processo de instalação do Turbo 2 é bem fácil, não tem segredo nenhum, então apos a instalalção ficou assim:

Imagem

Imagem

Bom, agora só falta ver se melhorou... após fazer uns testes com varios 3DMarks, e ficar um tempo jogando (NFS) a temperatura mais alta que consegui até agora foi essa, mesmo em temperatura ambiente alta (aqui tem dias que esta o maior abafado):

Imagem

Como podem ver muito melhor que os 80°C que consegui com o cooler original que na verdade é bem fraquinho...

Bom espero que este teste e modificação bem simples desse excelente cooler (ele é bem mais barato que os concorrentes de mesmo desempenho) seja util na escolha do seu proximo cooler...

Obrigado pela atenção e até mais!
faceiro.png
4

[FIGHT]XFX 9600 GT 512 MB X eVGA 8800 GTS 320 MB

Bom, adquiri uma 9600 GT da XFX com clocks de referência (650/1625/1800 Mhz) para substituir ou não (dependendo dos resultados) a atual 8800 GTS 320 MB que roda no dia-a-dia com um overclock (648/1512/1944 Mhz) completamente estável, testado arduamente com ATI Tools.

Entre algumas novidades declaradas pela NVIDIA no G94 em relação ao G80, temos o avanço do Purevideo, melhorias nas Stream Processors e nos ROP's. Olhando as especifícações abaixo, percebe-se no G94 um maior poder de processar texturas, graças as 32 TMU's, com 20.8 Gtexels/s de Fill-Rate. Em contrapartida, com "apenas" 64 Stream Processors, o G94 poderá sofrer um pouco com títulos que fazem uso intenso de shaders, mas penso que a NVIDIA agiu de maneira correta, porque pelo menos nos lançamentos atuais, GPU's com maior poder de processamento matématico não mostram um desempenho tão superior assim ao G94 (como por exemplo a Geforce 8800 GTX ou GT), ou porque os jogos atuais não fazem tanto uso de Shaders quanto o G80 ou G92 podem demandar ou algum outro motivo misterioso ainda não revelado.

Imagem

XFX Geforce 9600 GT 512 MB

- Core: G94 (21/02/08)
- Core Clock: 650 Mhz
- Shader Clock: 1625 Mhz
- Memory Clock: 1800 Mhz
- Memory Bandwidth: 57.6 GB/s
- Memory Bus/Framebuffer/Type: 256-bit/512 MB/GDDR3
- Stream Processors: 64
- Texture Mapping/Texture Address: 32/32
- Raster Operation Pipeline: 16
- Pixel Fill-Rate: 10.4 Gpixels/s
- Texture Fill-Rate: 20.8 Gtexels/s
- Shaders Fill-Rate: 208 GigaFlops

eVGA Geforce 8800 GTS

- Core: G80 (08/11/06)
- Core Clock: 500 Mhz
- Shader Clock: 1200 Mhz
- Memory Clock: 1600 Mhz
- Memory Bandwidth: 64.0 GB/s
- Memory Bus/Framebuffer/Type: 320-bit/320 MB/GDDR3
- Stream Processors: 96
- Texture Mapping/Texture Address: 24/48
- Raster Operation Pipeline: 20
- Pixel Fill-Rate: 10.0 Gpixels/s
- Texture Fill-Rate: 12.0 Gtexels/s
- Shaders Fill-Rate: 230 GigaFlops

As duas guerreiras possuem o mesmo comprimento, o bundle é simples nas duas VGA's, incluíndo cabo ViVo, cabo para alimentação 2 x Molex -> PCI-e, Adaptador DVI -> VGA, Cabo S-Video, CD de instalação e folhetos informátivos. De resto, ambas se diferenciam no sistema de refrigeração, dotado de um cooler single slot na 9600 GT, nada mais lógico quando consideramos que o G94 é fabricado em 65 nm (assim como o G92) e logicamente consome e dissipa menos que o G80, com TDP declarado pela NVIDIA de 95W contra 147W da 8800 GTS. As temperaturas foram surpreendentemente boas na 9600 GT, como podem ver no gráfico:

Imagem

A seguir, a configuração do teste:

- Abit IP35-E;
- Intel E2140 1.6 Ghz @ 2.93 Ghz (366x8);
- Markivion 2 GB DDR2 800 @ 732 Mhz;
- Samsung 250 GB SATA2;
- Seagate 400 GB SATA2;

- Windows XP SP2;
- Forceware 169.21 WHQL (para a 8800 GTS 320 MB);
- Forceware 174.16 WHQL (para a 9600 GT 512 MB).

Como disse anteriormente, os resultados em overclock da 8800 GTS foi rodando @ 648/1512/1944 Mhz, ficará faltando os resultados em overclock da 9600 GT, pois tive problemas ao efetuar nela, com perda de sinal para o monitor, num sintoma que tem ocorrido aos montes com vários usuários afora, principalmente com versões com OC de fábrica, então só resta esperar uma correção, seja driver, BIOS ou em caso mais extremo o RMA. A primeira parte do review contará apenas com os resultados do 3DMark, F.E.A.R. e Crysis. e Call of Duty 4, todos rodando na resolução de 1280x1024, que é nativa do meu monitor LCD e penso que da maioria. Outros títulos serão adicionados posteriormente.


Imagem

Aqui nenhuma surpresa, a 9600 GT fica levemente a frente da 8800 GTS G80 em todas as situações, inclusive com esta última em OC no 3DMark05. Mas no 3DMark06 a 8800 GTS G80 ganhou quase 1500 pontos em overclock, um crescimento bem considerável.
___________________________________________________________________________


Imagem

Aqui o cenário continuou equilibrado. Com overclock a 8800 GTS deu uma subida considerável, resultado este que a 9600 GT só conseguiu igualar com um overclock extremo de 750/1850/2214 Mhz, margem que parecia estável, sem travar ou apresentar artefatos por quase 1 hora no ATI Tools, mas pelo problema que mencionei anteriormente, preferi não incluir no teste ainda.
___________________________________________________________________________


Imagem

O resultado em Crysis foi surpreendente, a 9600 GT foi muito superior em todas as situações ao se usar filtros, mesmo com a 8800 GTS G80 em OC, provavelmente devido a pouca quantidade de memória contida nesta última, já que Crysis possui texturas bem grandes (de alta resolução) e ocupa bastante espaço na VRAM. De qualquer maneira, não se pode desprezar o maior poder de processar texturas da 9600 GT. Sem filtros, o resultado foi equilibrado com ambas em stock, mas o resultado da 8800 GTS G80 com OC foi melhorado consideravelmente.
___________________________________________________________________________


Imagem

Aqui também resultados bem semelhantes, nenhuma surpresa, seja com filtros ou não.
___________________________________________________________________________

Algumas observações:

PS1: Depois de muito ler em fóruns gringos pela internet, consegui esclarecer uma dúvida que me rondava toda vez que eu verificava o clock da GPU pelo RivaTuner. O Rivatuner 2.06 não é compatível "de fábrica" com a Geforce 9600 GT, mas basta adicionar uma linha com código do G94 no arquivo Rivatuner.cfg que funciona, mas ao verificar os clocks pelo hardware monitor, era mostrado o clock da GPU em 702 Mhz! Um bug, obviamente, visto que a 9600 GT roda a 650 Mhz, nas versões 2.07 e 2.08 a leitura já é feita de maneira adequada.

Isso acontece porque o Rivatuner lia os clocks baseado no gerador de clock da própria placa de vídeo (o que foi mudado nas versões 2.07 e 2.08, que lê a partir do driver), e diferente de outras versões, a 9600 GT possue gerador de clock apenas para as memórias, em intervalos de 27 Mhz. Agora, para a GPU, quem gera o clock é a própria placa-mãe, através do barramento PCI-E, em intervalos de 25 Mhz (desde que o PCI-E esteja a 100 Mhz, que é o padrão). Mas, há um segredo que ao que parece não foi divulgado pela NVIDIA, que é um overclock efetuado a partir do barramento PCI-E, ou seja, a partir do momento que a frequência do PCI-E (padrão 100 Mhz) é mudada na BIOS, é alterado também na frequência da GPU. Por exemplo, se tivermos efetuado uma alteração da frequência do PCI-E para 110 Mhz, teremos na realidade 10% de OC na GPU (o intervalo muda para 27,5 Mhz), interessante, não? Nem tanto, pois nas mobos com chipset da NVIDIA existe a opção "LinkBoost" que altera automaticamente a frequência do PCI-E, o que pode ser fonte de problemas, pois em caso de aumento excessivo, pode corromper dados do disco e nem dar boot em alguns casos (por isso, neste caso é prudente setar a frequência em 100 Mhz, ao invés de AUTO).

Então, para quem adquirir uma 9600 GT, fiquem atentos a este detalhe, principalmente porque NENHUM programa mostra este overclock que é efetuado pelo barramento PCI-E. Se a frequência do barramento PCI-E estiver setado em 110 Mhz por exemplo e a 9600 GT tiver o clock de 650 Mhz, é assim que será mostrado em qualquer programa, mas na realidade ela estará à 702 Mhz.

PS2: Há relatos e relatos em fóruns gringos (principalmente no da eVGA) sobre as "Black Screen of Death" ou tela preta que estão atormentando usuários da 9600 GT, que nada mais é do que a perda do sinal para o monitor e em seguida só se ouve o som de fundo (no caso do jogo) engasgando, aí só reiniciando. São aleátorias, podem acontecer em segundos, minutos ou horas, nas mais variadas situações e diferente jogos (comumente os da Valve, mas com raros relatos em UT3, Crysis e CoD4). Há relatos inclusive para versões em stock, mas as versões em OC predominam, no que muitos conseguem solucionar efetuando um downclock. São muitas as suposições, como PSU (fonte), firmware (BIOS), driver e até falha no projeto, como um correspondente da eVGA respondeu no fórum, baseado em experiências de usuários do XtremeSystems, famosos por vmods, e esta relacionado a um circuito chamado OVP (Over Protection Voltage), por outro lado, há relato de usuário que comprou uma 9600 GT OC da BFG e enviou um e-mail para o fabricante, que respondeu que o problema já está sendo solucionado com uma BIOS que estará disponível nas próximas semanas. Mas, nem uma posição oficial da NVIDIA, a única certeza é que o problema existe e não é tão simples. Eu mesmo tive este problemas várias vezes ao tentar vários níveis de OC, ao mesmo tempo que em stock parece correr normalmente.

Em breve, mais testes e novidades.
4

Tutorial: Monitorando VGA e CPU com o Rivatuner no Desktop (7/Vista)

Galera, resolvi fazer esse tutorial aqui porque achei muito legal, ÚTIL e nem tão complicado de se fazer, além de “enfeitar” o desktop com algo que é bonito e útil de verdade, né?

Pessoas como eu, que precisam ficar de olho no status geral do PC e que, para isso, deixam diversos programas de monitoramento de hardware abertos, como CPU-Z, HWMonitor, GPU-Z, etc, sabem que é um pé no baço ficar com várias janelas espalhadas pelo desktop ou minimizadas na bandeja do sistema.
O acesso é chato, e ter que ficar mudando de janela, com uma boa parte da sua área de trabalho ocupada pelos benditos, incomoda. Certo?
Seus problemas se acabaram big_green.png
Fiz esse tuto especialmente para a galera aquí do GdH.
Primeiramente, um preview de como ficará, mais ou menos, o negócio todo.

Imagem maneira encontrada no próprio gadget na aba Instructions
Imagem


Isso ficará flutuando no desktop, se trata de um gadget que se acopla ao Rivatuner.
É bem fininho, uma coluna única, e não ocupa muito espaço.

Vamos aos downloads das coisas necessárias:

Nosso querido Rivatuner: Link
Plugin do RealTemp para Rivatuner: Link
Gadget que usaremos: Link


Instalando:

•Instale o Rivatuner como sempre faz.

•Descompacte o conteúdo da pasta do Plugin RealTemp e jogue o conteúdo na pasta Plugins/Monitoring , que se encontra na pasta de instalação do Rivatuner.

Configurando o Rivatuner

•Abra o Rivatuner, clique na setinha “Customize” e clique no desenho onde há uma Lupa sobre um Chip. É aí que vamos ativar os plugins.

Visão da tela principal do Rivatuner e o botãozinho "Customize".
Imagem


•Aparecerá uma tela com alguns gráficos e, no canto inferior direito, um botão “Setup”. Clica nele.

Tela maneira cheia de gráficos verdes com o botão setup big_green.png
Imagem


•Na tela que abre em seguida, clique no botão “Plugins”, localizado na parte inferior esquerda.

•Marque todos, caso não saiba a função de cada um, mas deixe o Everest.dll desmarcado pois ele é meio inútil neste caso. Inútil pois ele só trabalha se o programa Everest estiver aberto... e nosso interesse aqui é justamente livrar a área de trabalho do excesso de janelas de monitoramento. Mas se quiser dar uma olhada no funcionamento, ative-o e configure-o por sua conta stick_out_tongue.png

•Dê ok.

•Dê ok novamente.

•Novamente na tela dos gráficos, existe um botão vermelho no canto inferior esquerdo.
Ative-o e feche essa janela.

Tela maneira cheia de gráficos verdes com o botão vermelho big_green.png

Imagem


•Na tela principal do Rivatuner, vá na aba “Settings” e deixe marcado “Send to Tray on close” e “Run at Windows Startup” e dê OK.

Instalando o Gadget

•Instale o Gadget que baixou (só dar dois cliques ¬¬).

•Após instalado, caso ele não abra sozinho, clique com o botão direito em uma área vazia da Área de Trabalho, clique em Gadgets, clique com o direito no gadget “GPU Monitor” e clique em “Adicionar”.

•Meio caminho andado, seu gadget deverá aparecer na área de trabalho e até mesmo exibir algumas informações já.

Agora vamos configurá-lo.

Configurando o Gadget para exibição das informações

Note que são muitas opções. Por isso, esse tutorial é apenas um exemplo das tantas possibilidades de configuração. Você poderá modificar à vontade ao seu gosto depois de aprender.


•Para configurar, passe o mouse sobre o Gadget e clique na Chavinha que aparece lá no canto superior direito do gadget, abaixo do botão de fechar.

•Na tela principal, temos diversas ferramentas para customizar a aparência do gadget.
Ficará ao seu critério dar aquela modificada maneira, ao seu gosto.

•Rolando o conteúdo dessa janela para baixo, temos a área “Display Filter”.
Marque todas as caixinhas de seleção, e deixe desmarcadas as seguintes:
CPU0 \ CPU clock
CPU1 \ CPU clock
[Nome do seu processador] – Load (Ex.: E8400 – Load).


Janela principal de configurações do Gadget. Role-a para baixo para chegar à sessão "Display Filter".
Imagem



•Feito isso, vá para a aba “Advanced”.
Nessa aba, você vai poder configurar a forma que cada estatística vai ser exibida, com direito a gráficos em tempo real, barrinhas que se movem, ícones com marcas e símbolos, etc.

-Configurando os mostradores (Aba Advanced)

•Clique no dropdown 1 “Select a Monitor” e selecione “Core clock”.
Em Display Style selecione: Med Image/Text
Em icon selecione ATI Radeon ou Nvidia GeForce (de acordo com a sua smile.png )
Marque a caixa “Display Header” e em Header Text escreva GPU.

•Clique no dropdown 1 e selecione “Memory clock”
Display style: Med Image/Text

•Clique no dropdown 1 e selecione “Reference fan duty cycle”
Display Style: Lg Image/Bar

•Clique no dropdown 1 e selecione “Reference fan speed”
Display Style: Lg Image/Bar Overlayed

•Clique no dropdown 1 e selecione “Core temperature”
Display Style: Graph w/Title

(Nota: algumas VGAs possuem mais de um sensor de temperatura, apresentando leituras secundárias de outros componentes como VRM, Memórias, Controladores de Memória, Shaders, etc.
Para essas temperaturas secundárias da VGA, recomendo o Display Style “Lg Image/Bar”.)


•Clique no dropdown 1 e selecione “GPU usage”
Display Style: Lg Image/Bar

•Clique no dropdown 1 e selecione “Framerate”
Display Style: Lg Image w/Min&Max

•Clique no dropdown 1 e selecione “CPUx \ CPU usage”**
Display Style: Lg Image/Bar
Icon: Intel ou AMD (de acordo com o seu J)
Marque a caixa “Display Header” (Apenas no CPU0 \ CPU usage) e em Header Text digite CPU

**Nota: “x” é o número do núcleo do seu processador.
Selecione um núcleo por vez e repita este processo para os demais, dependendo de quantos núcleos seu CPU possui.

•Clique no dropdown 1 e selecione “HDDx temperature”**
Display Style: Graph w/Title
Marque a caixa “Display Header”
Em Header Text escreva Hard Disks

**
Nota: “x” é o número referente a posição/contagem do seu HD. Caso possua mais de um, repita o processo para os demais.

•Clique no dropdown 1 e selecione “Physical memory usage”
Display Style: Med Image/Text
Marque a caixa “Display Header”
Em Header Text escreva System Memory

•Clique no dropdown 1 e selecione “Page file usage”
Display Style: Med Image/Text

•Clique no dropdown 1 e selecione “[Nome do seu processador] – Core x”** (Ex.: E8400 – Core 0)
Display Style: Graph w/Title

**
Nota: “x” é o número do núcleo do seu processador. Repita o processo para os demais núcleos do seu processador, caso tenha.

•Clique no dropdown 1 e selecione “[Nome do seu processador] – Frequency” (Ex.: E8400 – Frequency”
Display Style: Lg Image/Bar
Icon: Intel ou AMD.

Pronto.

Feito isso tudo, é só apreciar as informações básicas do seu sistema à qualquer momento e em um lugar só.
Muito útil para quando você está fazendo testes de stress, overclockando, utilizando programas pesados, ficar de olho nas temperaturas vulcânicas do seu PC mais do que ultraoverclockado... enfim.
Tem muitos recursos de personalização legais ali e é bem fácil fuçar.
Aquí eu deixei um tutorial “ao meu gosto” mas você pode mudar.

O resultado?
Dá isso aquí, ó:


Imagem

Fiz o tuto em uma config com VGA Nvidia GTX 260 e uma com ATI HD 4870, o procedimento é o mesmo para ambas, funciona normalmente nas duas.
No final das contas serve para monitorar CPU, VGA, HDD e Memória do Sistema.

Sobre o Plugin do Everest, infelizmente ele só funciona com o Everest rodando paralelamente.
Realmente uma pena pois o Everest poderia fornecer até mesmo tensões da fonte para serem exibidas ali, rotações dos fans, vCore, etc.
Quem não se importar com o Everest pesadão rodando no fundo, pode ativar o plugin e mandar bala na configurada.
Para fazer com que o plugin do Everest funcione, abra o Everest, Clique em Arquivo/Preferências/Aplicações Externas e marque a caixa 'Enable shared memory'

Sobre Funcionamento Win 7/Vista
Como é necessário o uso do recurso de Gadgets do Windows, infelizmente é impossível, creio eu, realizar o mesmo no Windows XP.

Eu espero que este tutorial agrade a vocês e lhes seja útil tanto quanto para mim, pois é de minha autoria e deu um certo trabalhinho de passar as informações todas da cabeça para o teclado.

Qualquer problema, erro no tutorial, erro ortográfico, contribuição, etc, só falar numa boa.

Abraços!


Créditos: Cy4n0-Z
4

Tudo sobre Arquitetura ATI vs Nvidia (Stream Processor)

O que são STREAM PROCESSORS?

Stream Processors é a tecnologia que veio para substituir os antigo Pipelines (ROPS).

Antigamente os processos de Pixel Shader e Vertex Shader eram feito de modo separado. O Pipeline ou processava somente Pixel Shader, ou somente Vertex Shader.
As unidades de Vertex só processavam vértices, as de pixel apenas aplicavam shaders em pixels.

O problema deste modelo é que as aplicações podem exigir mais operações de Pixel que Vertex shader e vice-versa. E deste modo acontece de haver ociosidade do conjunto para o processo de instruções. O jogo (ou quaisquer aplicação gráfica) tem uma implementação diferente, alguns dependendo mais das unidades de vértice, enquanto outros saturam as de pixel.
Então os fabricantes de placa de vídeo precisavam ficar adivinhando, qual seria o balanceamento mais correto (vértice x pixel) para haver maior desempenho da placa.

Com o surgimento dos Stream Processors este conceito mudou, pois em vez de trabalhar separadamente, ele unificou em paralelo o tratamento de vértices e pixels, ou seja, um stream processor pode tanto processar Pixel Shader, como processar Vertex Shader.
É a famosa tecnologia de Shaders Unificados.

Nesta imagem podemos ver bem como isto funciona:
Imagem


Com esta flexibilidade, o fabricante de GPU não tem mais preucupação com a proporção (Vertex /Pixel), ele vai se preucupar apenas em forneçer o maior número possível de unidades programáveis(stream processors)

E para o desenvolvedor de jogos vai poder livremente decidir quantas unidades quer para cada função. E terá toda liberdade de escolher o melhor algoritimo para seu software.

Este é um conceito inteligente, e abre uma enorme quantidade de opções. Como cada processador de stream (Stream Processor) é programável, podemos utilizar ele para outras finalidades além do processamento de vértices e pixels, como cálculos de fisica, aplicação de Antialiasing na imagem, etc.

Já foi comprovado que o processador principal do sistema (CPU) não é eficiente para o calculo de física, com esta nova abordagem poderemos usar alguns stream processors para esta função e nisto reduzir e muito o uso do CPU nas aplicações 3D. Com isto o CPU estará livre para processar somente scripts, lógica, IA do jogo. Isto aumentará consideravelmente o desempenho dos jogos, e diminuirá ou extiguirá com gargalos existentes entre CPU e Placa de vídeo.

Então resumindo.
Os stream processors é uma nova tecnologia que trouxe benefícios para o processamento unificado de shaders.

Agora vamos ver como os Stream Processors são tratados na arquitetura de placas da ATI (Apartir do RV770) e na Nvidia(Apatir do GT200).

Arquitetura ATI vs Nvidia (Stream Processor)


Arquitetura ATI:

Umas da novas arquiteturas da ATI é a RV770. O processador contem 10 núcleos SIMD, cada um com 16 unidades de Stream Processor(SP). Os Núcleos SIMD são similiares aos Cluster Processor Texture(TPC) da Nvidia,(A arquitetura GT200 possuem 10 desses), e então 10*16 = 160SP(RV770) é a chamada "Execução de fases em granularidade", que é similiar aos Stream processors da Nvidia (GT200 tem 240 desses).

O modelo de processo da Nvidia executa somente 1 intrução por fase, cada Stream Processor da arquitetura RV770 executa um compactado de 5 instruções wide VLIW, ou como comumente chamado 5 SPUs.

Vou explicar melhor isto:
Em cada Stream Processor da ATI temos 5 ALUs(Arithmetic logic unit), cada um tem capacidade de entregar 1 instrução por pulso de clock. Geralmente eles não todos usados, até em aplicações muito pesadas como benchmarks, temos uma média de 4.2 intruções por ciclo.
O único programa que até hoje conseguiu usar de maneira perfeita as 5 ALUs dos Stream processors foi o Matrix Multiply. No qual se mostrou todo o potencial dos Stream processors da Arquitetura da ATI.

Então apatir disto é que vemos pessoas dizendo que as placas da ATI tem 800 Stream Processors, por causa da seguinte conta:
10 SIMD * 16 SP * 5-Wide VLIW = 800 Stream Processors.



Imagem


Imagem

Arquitetura Nvidia:

A última arquitetura da Nvidia chamada GT200 (GT significa Graphics Tesla), o processador contém 10 Texturas/Processors Clusters (TPC), cada um com 3 Single Program Muliple Data(SPDM) computando em núcleos os quais a Nvidia chama de Streaming Multiprocessors(SM). Cada um tem duas portas (Chamadas Port 0 e Port 1).

A cada porta pode realizar instruções entre 1 e 3 agrupamentos de unidades com sua fucionalidades em qualquer ciclo.
Cada agrupamento contem:
1 SIMT (Single Intruction Multiple Thread) para cada 8 Unidades de ponto flutuante, marketadas como "Stream Processors" ou como Shader cores.
Resumindo: 8 caminhos gerenciando a execução do SIMT.

Então o cáculo de stream processors da Nvidia é feito da seguinte forma:

10 TPC * 3 (SPDM) * 8 (SIMT) = 240 Stream Processors.



Imagem




Arquitetura Nvidia vs ATI


Considerando um teórico número de 800SP da ATI, na prática é diferente. Porque como citei anteriormente o uso das ALUs é comumente não usado da forma adequada, somente 1 software até hoje conseguiu usar as ALUs na forma teórica, e sim neste software podemos dizer que a ATI possuiu um fator de 800 contra 240 da Nvidia.

Um site francês(não consegui mais achar o link) fez comparação entre os SP da ATI e da Nvidia, e chegou a conclusão, em uma média comparando vários jogos e aplicações, e chegou-se na conclusão que aproximadamente para termos o desempenho da ATI para Nvidia somente em Stream Processors deveríamos fazer a Razão/Proporção de 5/2. Dividindo os Streams Processors da ATI por 5, e da Nvidia por 2. Devemos fazer isto justamente porque não se pode considerar o uso total dos Stream Processors da ATI(que na teoria serião de 800 e 240 da ATI) na prática consideraram 160SP(RV770) da ATI contra 120SP da Nvidia(GT200) fazendo uma média de todos os jogos, aplicações e benchmarks em geral.

Isto deve mudar com a nova implantação de física da ATI em suas GPUs com o novo Havok FX. O qual irá fazer mais usos das Stream Processors(diminuindo esta Razão/proporção) em vantagem para a arquitetura da ATI.

Porém estamos aqui falando de arquitetura, então não podemos somente falar de Stream processors, eles não significam tudo em uma placa de vídeo. Eles são somente uma parte importante no processo, no qual temos outras 2 no mesmo nível de importância. Vamos analisar os outros fatores:

Há três especificações que são as mais determinantes de desempenho de uma placa de vídeo.
Uma é tão importante quanto a outra.

São
-> Fillrate (Capacidade Bruta da placa de vídeo em processar pixels e texturas e escrevê-los na memória)
É dividido em 2.
-Pixel Fillrate (É formado pelo número de ROPs[pixel pipelines] * Clock da GPU) {Resultado em MegaPixels/s, ou MPixels/s}
-Texture Fillrate (É formado pelo número de TMU[Unidades de processamento de textura] * Clock da GPU) {Resultado em MegaTexels/s ou MTexels/s}

PS: Porém aqui o mais importante a se considerar é o Texture Fillrate.. já que o Pixel Fillrate está sendo
bastante substituído pelos StreamProcessors

OBS: Aqui a Nvidia supera a ATI em qualquer arquitetura(Texture Fillrate). É aqui que ela consegue seus aumentar seu FPS, perante os Stream Processor da ATI.

-> Memory Bandwidth (Taxa de transferência da memória)
É formado pela seguinte fórmula: [largura da banda(em bits) * Clock da memória] / 8 / 1000 {resultado em GB/S}

-> Stream Processors (Capacidade de processamento de Efeitos de Pixel Shader e Vertex Shader, e efeitos de AF, AA e física).
Nas placas da ATI usa-se o fator 5 para a razão e proporção com a nvidia
Nas placas da Nvidia usa-se o fator 2 para a razão e proporção com a ati

Então, terminado este Assunto, não podemos pensar que Stream processors somente são determinantes.


E eu falei muito sobre Vertex e Pixel shader, porém o que é cada um deles?

Pixel Shader e Vertex Shader


Pixel Shader


Pixel Shader é usado para aplicar a cor e outros atributos para cada pixel.
Ele é frequentemente usado para aplicar efeitos de luminosidade, de sombras, Blur e efeitos complexos como Specular Highlights, Bump Mapping e Depth of field.

Efeitos de luminosidade

Com e sem pixel shader.


Imagem


Specular highlight

Imagem

Bump mapping

Sem Bump Mapping:
Imagem

Com Bump Mapping:
Imagem




Translucency


Imagem

Efeito Blur


Imagem
(Efeito blur no Spore, fazendo as distâncias muito mais realistas).

Sombras com Depth of field(DOF)


Imagem
(OBS: Depth of Field é uma técnica que visa embassar o que não é necessário em uma imagem, aplicando-se no efeito 3D, além de embassar objetos que(no caso da foto) não estão na mira, embassa objetos distantes que mesmo estando perto da mira(no aspecto 2D), estão longe da mira(no aspecto 3D).
PS: Imagem do jogo Crysis.

Mais sobre Depth of Field:
http://en.wikipedia.org/wiki/Depth_of_field


Vertex Shader


Ele é interessante para ocasiões onde se tem muita geometria complexa e neste caso vamos substuir o tratamento normalmente feito com texturas por Vertex Shader.
Por exemplo, os pelos de um cachorro.. se formos tratar isto com texturas todos os pelos ficaram com uma configuração 2D pois seria uma geometria muito complexa para se tratar com 3D. Porém com o Vertex Shader podemos tratar todos os pelos como forma de polígonos e com operações simples.
Os vertex shaders trabalham na estrutura dos objetos 3D que compõe a imagem, adicionando efeitos e criando animações, como no caso da grama ou dos cabelos.

Também são muito usados para contrução de terrenos muito complexos. E muito usado em efeitos como Parallax Occlusion Mapping (POM).
Você pode reparar que a maioria dos jogos tem o terreno com retas, e quadrados.. estes não usam Vertex Shader.
Porém quando você ver terrenos complexos, estes irão ter que usar muitos polígonos, ou seja, Vertex Shader.

Sem contar com uma implementação que vem sendo muito feita nos últimos tempos que é a abordagem Vertex Textures. Apartir do momento que outros componentes da VGA terminam a textura, a nova programação do Vertex Shader consegue ler a textura assim como pixel shader faz.
Apartir do momento que ele traça toda a textura ele edita vários vértices da textura e a transforma em um polígono.
Esta nova programação vem sendo muito usada para se fazer efeitos com fluídos, simulação real do oceano, explosões, partículas, etc..



Hair Polygonal


Imagem




Imagem

Grass polygonal


Imagem




Imagem


Terrenos



Imagem


Imagem


Outro exemplo de terreno feito em vertex Shader


Imagem


Parallax Occlusion Mapping (POM)


Imagem




Imagem

Os terrenos de Crysis são tão perfeitos por causa do POM, que é processado no Stream Processors.
Mais sobre POM:
http://en.wikipedia.org/wiki/Parallax_mapping

Exemplo de Vertex Texture que é muito usado em jogos com oceano (Crysis por exemplo com seu algoritimo Fast Fourier Transform)


Imagem


Imagem

O Fast Fourier Transform(Vertex Texture) é um algoritimo que é usado junto ao Vertex Shader que foi implementado ao Crysis.
Ele cria ondas na água, e faz a água interagir com outros objetos(tipo a água levar um graveto por exemplo)
http://en.wikipedia.org/wiki/Fast_Fourier_transform

Sem vertex shader, nada mais complexo em termos de polígonos poderia existir.
E sem Pixel shader nada mais complexo em termos de cor e luminosidade poderia exisitir.


3
locked

Poste aqui seu mini-review, fotos da vga, benchmarks e screenshots

Todos nós gostamos de conhecer placas de vídeo, e ficamos interessados em saber mais detalhes sobre o desempenho das vgas dos colegas de fórum. Este tópico é uma forma de concentrar aqui essas informações, evitando que elas fiquem espalhadas pelo fórum.

Algumas considerações sobre o tópico:

1) Não teremos aqui regras rígidas de participação, apenas algumas recomendações, que devem ser seguidas para o bom andamento do tópico. Caso elas não sejam atendidas, qualquer participante pode reportar a postagem infratora aos moderadores, que sendo o caso, tomarão as providências cabíveis.

2) Todos podem participar, não importa o sistema e a vga. Apenas recomendo que o usuário poste a configuração que está usando, para que os colegas tenham idéia de como se chegou àquele resultado.

3) São válidas fotos da vga, informações sobre a mesma, benchmarks (3DMark, Aquamark e outros), screenshots de jogos etc.

4) Poste as imagens no tópico exclusivamente em formato thumbs. Para postar em thumbs hospede a imagem no site ImageShack (http://imageshack.us/) e após procure pelo campo “Thumbnail for forums” e copie seu conteúdo diretamente no tópico.

Exemplo:

Imagem

O tamanho máximo de imagem permitido pelo fórum é 640x480, o que fica inviável aqui, pois a maioria dos que frequentam o tópico usa resolução alta. Por isso a exigência na utilização do formato thumbs. A finalidade é padronizar e facilitar a vida de todos.

5) Recomenda-se que as screens sejam tiradas contendo o máximo de informações possíveis, principalmente fps. Eu pessoalmente recomendo o uso do RivaTuner e do Print Screen Replacement. Aqui tem um tutorial de como tirar screenshots usando esses programas: https://www.hardware.com.br/comunidade/tutorial-temperatura/800903/
Caso o usuário prefira, pode utilizar outros programas, como o Fraps, por exemplo.

7) Será colocado no primeiro post apenas um link por vga.

8) Posts com apenas um benchmark, ou com testes/screens em apenas um jogo não serão considerados mini-reviews, e, portanto, não terão links no primeiro post do tópico. O mini-review deve demonstrar o desempenho real da vga/sistema, e por isso os benchmarks são necessários.

Espero que gostem. wink.png

Mini-reviews do tópico (em ordem de postagem):1) X1950PRO – Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/#post3477679
2) 7950GT – VirusX: https://www.hardware.com.br/comunidade/poste-minireview/825867/#post3477701
3) 8800GT – miptzi: https://www.hardware.com.br/comunidade/poste-minireview/825867/#post3477711
4) 8600GT – Ivan Filho: https://www.hardware.com.br/comunidade/poste-minireview/825867/#post3479166
5) 8600GT – Edilson Santana Borges: https://www.hardware.com.br/comunidade/poste-minireview/825867/#post3479194
6) 8500GT - NoM$_YesLinux: https://www.hardware.com.br/comunidade/poste-minireview/825867/1.html#post3480334
7) 8600GT – DaviF: https://www.hardware.com.br/comunidade/poste-minireview/825867/1.html#post3480943
8) 2600XT – Marter Templar: https://www.hardware.com.br/comunidade/poste-minireview/825867/2.html#post3488297
9) 3870 – reiszink: https://www.hardware.com.br/comunidade/poste-minireview/825867/3.html#post3490009
10) 8500GT – Jimi Page: https://www.hardware.com.br/comunidade/poste-minireview/825867/4.html#post3493815
11) 3850 – Evandro Rocha: https://www.hardware.com.br/comunidade/poste-minireview/825867/4.html#post3508914
12) 8500GT – Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/5.html#post3609565
13) 9600GT – Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/5.html#post3630926
14) 9600GT – miptzi: https://www.hardware.com.br/comunidade/poste-minireview/825867/7.html#post3695599
15) 6100 - NoM$_YesLinux: https://www.hardware.com.br/comunidade/poste-minireview/825867/8.html#post3710497
16) 9800GTX – miptzi: https://www.hardware.com.br/comunidade/poste-minireview/825867/12.html#post3743810
17) 3870 – rodanelon: https://www.hardware.com.br/comunidade/poste-minireview/825867/14.html#post3767086
18) 9600GT – Henrique_Fockink: https://www.hardware.com.br/comunidade/poste-minireview/825867/16.html#post3809561
19) 3850 - NoM$_YesLinux: https://www.hardware.com.br/comunidade/poste-minireview/825867/16.html#post3809797
20) 8800GT – Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/19.html#post3876353
21) 8800GT – GuGle: https://www.hardware.com.br/comunidade/poste-minireview/825867/28.html#post3957229
22) Crossfire 4850 - LeandroJVarini: https://www.hardware.com.br/comunidade/poste-minireview/825867/23.html#post3922424
23) GTX 260 - reiszink: https://www.hardware.com.br/comunidade/poste-minireview/825867/47.html#post4016909
24) 8800GS - Victor_: https://www.hardware.com.br/comunidade/poste-minireview/825867/49.html#post4019371
25) 9800GTX+ - hitsugy: https://www.hardware.com.br/comunidade/poste-minireview/825867/50.html#post4020125
26) Crossfire 4850 - Jiu's: https://www.hardware.com.br/comunidade/poste-minireview/825867/54.html#post4032983
27) 4870 - Rhavy: https://www.hardware.com.br/comunidade/poste-minireview/825867/68.html#post4088870
28) 4850 - Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/86.html#post4353868
29) GTX 260 - Claudio Pena: https://www.hardware.com.br/comunidade/poste-minireview/825867/94.html#post4437716
30) GTX 280 - Moskd: https://www.hardware.com.br/comunidade/poste-minireview/825867/104.html#post4456972
31) GTS 250 - Ivan_Filho: https://www.hardware.com.br/comunidade/poste-minireview/825867/113.html#post4497199
32) Crossfire 4850 x 4890 - Proper: https://www.hardware.com.br/comunidade/poste-minireview/825867/117.html#post4509937
33) 4890 - Proper: https://www.hardware.com.br/comunidade/poste-minireview/825867/120.html#post4535534
34) SLI GTX 295 - Julligan: https://www.hardware.com.br/comunidade/poste-minireview/825867/120.html#post4535708
35) GTS 250 - ice_pick: https://www.hardware.com.br/comunidade/poste-minireview/825867/121.html#post4535878
36) GTX 280 - hitsugy: https://www.hardware.com.br/comunidade/poste-minireview/825867/121.html#post4536521
37) Crossfire 4830 - diefen: https://www.hardware.com.br/comunidade/poste-minireview/825867/122.html#post4541877
38) Crossfire 4850 - nil_bad: https://www.hardware.com.br/comunidade/poste-minireview/825867/123.html#post4543362
39) GTS 250 - Bael: https://www.hardware.com.br/comunidade/poste-minireview/825867/128.html#post4568734
40) 8800GTS - miptzi: https://www.hardware.com.br/comunidade/poste-minireview/825867/129.html#post4586507
41) Crossfire 3850 - NoM$_YesLinux: https://www.hardware.com.br/comunidade/poste-minireview/825867/132.html#post4606033
42) 4870 - Tolland: https://www.hardware.com.br/comunidade/poste-minireview/825867/134.html#post4629472
43) GTX 275 - ARMOSFRELDON: https://www.hardware.com.br/comunidade/poste-minireview/825867/135.html#post4630625
44) 8800GT - Rafael-AJ: https://www.hardware.com.br/comunidade/poste-minireview/825867/136.html#post4631112
45) 9800GT - Hellequim: https://www.hardware.com.br/comunidade/poste-minireview/825867/137.html#post4631954
46) Crossfire 4850 - DaviF: https://www.hardware.com.br/comunidade/poste-minireview/825867/148.html#post4640791
47) 5870 - nil_bad: https://www.hardware.com.br/comunidade/poste-minireview/825867/166.html#post4678220
48) 4770 - russo_yf : https://www.hardware.com.br/comunidade/poste-minireview/825867/174.html#post4748743
49) 9800GT - cool guy: https://www.hardware.com.br/comunidade/poste-minireview/825867/174.html#post4773863
50) 5750 - Henrique_Fockink: https://www.hardware.com.br/comunidade/poste-minireview/825867/175.html#post4775565


Qualquer erro encontrado pode ser reportado a mim por MP ou no próprio tópico.
3

Fatos sobre a XFX: O que há por trás dos holofotes

É fato que usuários mais avançados passam longe de placas XFX. Fato também que essa marca é idolatrada entre os menos entendidos. Mas o que vou mostrar aqui são fatos reais, não baseados em mero “achismo”. Fatos estes que eu venho presenciando ao longo da minha larga vida virtual, entre fóruns e contatos com quem já teve placas dessa marca, e produtos achados em lojas virtuais com especificações discrepantes. E com isso tudo, compus este dossiê, reunindo fatos verídicos em torno dessa marca, a XFX. Vamos aos fatos!

Meados de 2008: XFX 8500GT mortas com cerca de 1 ano
Vários usuários de VGA’s XFX 8500GT relataram esse problema. Isso também se uniu às noticias relacionadas ao bug de fabricação dos GPU’s G84 e G86 (8400GS, 8500GT e 8600GT) por parte da nVidia, porém o índice de queimas das XFX foi bem maior. Para a maioria das pessoas isso é irrelevante, mas eu cheguei a ver uma 8500GT tendo problemas, não é nada bonito. As texturas ficam muito loucas, e é de dar pânico...

VGA’s capadas – Capítulo 1: 8600GT 256MB DDR2
Na época das 8500GT e das 8600GT “endeusificadas”, ou seja, no início de 2008, houve também o lançamento de versões capadas dessas VGA’s. Nas 8500GT, houve o lançamento de versões com memórias GDDR2-533 e 667 (o padrão é 800). Essas versões vários fabricantes fizeram, EVGA, XFX, Zogis, etc. Nas 8600GT, haviam dois padrões de referência, previstos pela nVidia: 8600GT 256MB GDDR3, que era voltada ao público entendido, e a 8600GT 512MB DDR2, voltada ao público noob, que só olhava (e ainda olha) pra quantidade de memória apenas. Mas quem prestava mais atenção, sabia que a 8600GT de 256MB era GDDR3, era mais rápida. Porém a XFX quis jogar sujo, e lançou a única 8600GT com 256MB e ainda por cima DDR2. Quem não prestou atenção, levou uma VGA 25% mais lenta, fora dos padrões de referência, e com valor baixo de revenda.

2008: O mistério das 8800GT XXX Edition
Vários compradores de 8800GT XXX (versões overclockadas da XFX) encararam um problema estranho: Os clocks de fábrica dessas placas de vídeo simplesmente eram instáveis! Ou seja, você compra uma VGA e quando vai jogar, vê um show de artefatos na tela, travamentos, por pura incompetência do fabricante. Sim, é constrangedor... Compramos versões overclockadas de fábrica pela garantia de estabilidade dessas versões com o overclock descrito. Uma placa vir da fábrica já instável é o fim da picada.Era necessário reduzir a freqüência das memórias em 50MHz para estabilizar, prova de que eles sentaram a mão no overclock e esqueceram que é necessário atestar a estabilidade. Além disso, Uma placa com overclock próximo (ou ultrapassando) o limite estável significa redução da vida útil. Ou seja, é cilada...

VGA’s capadas – Capítulo 2: XFX Geforce 9 Não precisa ser trouxa pra ser enganado
O caso das 8600GT não recebeu grande atenção da maioria das pessoas, então a XFX resolveu inovar nos “capamentos”.

XFX 9600GT Cambalacho Edition:
Dia desses estava passeando pelo GDH e achei esse tópico: https://www.hardware.com.br/comunidade/showthread.php?t=979274&highlight=xfx+9600gt+48+stream
Sim, é o que vocês leram... A XFX lançou uma 9600GT com 48SP’s, ao invés dos 64 padrões. O capamento chegou aos SP’s. E mais: A 9600GT de 48SP’s é, na verdade, uma 9600GSO 512MB, basta comparar as especificações. Se a loja/vendedor não disser quantos SP’s tem, você pode pagar por uma 9600GT e receber uma 9600GSO 512MB (a pior versão da GSO, perde para a 9600GSO 384MB). E quem lucra com isso? A XFX... Jogo sujo. Comprovação e testes? Veja aqui: http://adrenaline.com.br/forum/placas-de-video/264214-alerta-comparacao-9600gt-xfx-48sp-vs-9600gt-64sp.html
9800GT, igualmente capada nos SP's
Outro caso, descoberto hoje, foi esse: http://www.newegg.com/Product/Product.aspx?Item=N82E16814150424
Pelos padrões, a 9800GT tem 112SP’s. Toda e qualquer 9800GT tem esse número de SP’s. Mas a XFX fez o que todos achavam improvável: capou mais SP’s! Lançaram uma 9800GT com apenas 96SP’s. Mesmo número de SP’s da 9600GSO 384MB! Só lembrando que SP’s são os novos “pixel e vertex” shaders, que surgiram com as Geforce 8 e Radeon HD2xxx.

Coloquei apenas os fatos presenciados por mim. E estes já deixam bem clara a desonestidade e a falta de qualidade dessa marca. Fique de olho na sua próxima compra, e mantenha distância da XFX.
Gostaria que usuários com outros casos com a XFX expusessem seus problemas também, eles podem inclusive vir para o tópico principal. E por favor, fanboys XFX mantenham distância...
3

Finalmente, um dock para placas de vídeo em notebooks!

A maior reclamação que vemos de usuários de notebooks é que ou eles tem um preço acessível mas não tem uma placa de vídeo decente ou tem uma placa de vídeo decente, mas custam os olhos da cara. Diferentemente dos desktops, não é possível substituir a placa de vídeo do notebook por uma melhor... ou, não era.

Parece que a fabricante Razer está criando um dispositivo chamado Razer Core que permitirá exatamente isso: usar uma placa de vídeo externa em um notebook.

http://games.tecmundo.com.br/noticias/razer-core-dock-placa-video-externa-para-notebooks-custa-us-499_822745.htm?utm_source=tecmundo.com.br&utm_medium=home&utm_campaign=tecmundogames

O custo anunciado é de US$ 499, o que deve ser em torno de R$ 2.500 quando - e se - chegar por aqui.

Vídeo mostrando utilização (a partir dos 5 minutos)
3

FAQ-64bits x 128bits - Identificação pelos chips de memória

Como detectar se o bus da placa de vídeo é 64 ou 128bits através dos chips de memória

Este tópico tem o intuito de auxiliar os colegas na identificação correta quando da aquisição de uma placa de vídeo, podendo desta forma, diferenciar uma versão de 64bits de uma de 128bits. É um método bastante simples e que possibilita 100% de certeza na identificação do bus witdh. Antes porém, cabe uma breve explicação sobre qual o real impacto no desempenho 3D de uma placa de 64bits em relação ao de uma placa de 128bits:

Geralmente, quando falamos nos bits nas placas de vídeo, estamos nos referindo ao BUS WIDTH, que indica a largura de banda do bus de dados, ou seja, o número de bits de dados que podem ser escritos ou acessados simultaneamente. Quanto maior a largura da banda, melhor será o desempenho da placa.

Isso é mais fácil de ser visualizado quando verificamos outro parâmetro que é o Bandwidth Memory que indica a quantidade de dados que podem ser transferidos através de uma interface num determinado período de tempo. Vamos supor duas placas com clock de memória de 400MHz sendo uma de 64bits e a outra de 128bits:

- 400 x 128 / 8 = 6.4GB/s
- 400 x 64 / 8 = 3.2GB/s

Isso não quer dizer necessariamente que o desempenho da placa de 64bits é metade de uma de 128bits, pois esta taxa é o pico máximo teórico. Na prática, se compararmos uma R9600 por exemplo, a queda de performance é em média de 40% aproximadamente. Fica mais fácil visualizarmos isso através da tabela abaixo, onde constam o desempenho (FPS) da R9600 (128bits) e da R9600SE (64bits), ambas operando no mesmo clock (325/400):

ctenaglia-64bitsx128bits_9600.jpg
dados obtidos do 3Digest da Digit-Life

Para a verificação de qual é o Bus da placa basta identificar o tipo do chip de memória utilizado na placa. Eles podem ser de 3 tipos (encapsulamento) diferentes (veja figuras abaixo) :

TSOPII (66pins) : 16-bit
TQFP (100pins) : 32-bit
BGA (144balls) : 32-bit

Daí, é só verificar a quantidade de chips de memória existentes na placa:
4 chips de 16-bit = bus bandw de 64-bit
8 chips de 16-bit = bus bandw de 128-bit
4 chips de 32-bit = bus bandw de 128-bit

FOTOS DOS CHIPS DE MEMÓRIA:

ctenaglia-tsop_3.jpg ctenaglia-bga_3.jpg ctenaglia-tqfp_3.jpg

Nota: este método não é válido para alguns casos, como por exemplo a 9800Pro 256MB, onde se verifica a existência de 16 chips BGA. Num caso como este, foi necessário a colocação dos 16 chips para formar a capacidade total de 256MB visto os chips serem de 16MB e, o fator determinante para a formação do bus é o próprio processador gráfico que é limitado a 256bits pelos seus controladores de memória.


Aqui está uma FX5200 de 64bits (Low profile small card) . Este form factor identifica rapidamente uma placa de 64bits devido a falta de espaço para a colocação de mais chips:

ctenaglia-t128.jpg

Esta outra (esquerda) FX5200 de 64bits (ATX full size card) é facilmente identificável pelos 4 espaços vagos existentes na parte superior. A foto da direita mostra a mesma placa, sendo esta de 128 bits (com os 8 chips de memória)

ctenaglia-chaintek_fx5200_64bits.jpg ctenaglia-chaintech_8_chips.jpg

Existe também uma outra arquitetura, como esta FX5200 da Prolink, onde os chips estão dispostos em ambos os lados da placa:

ctenaglia-ultimate_frente.jpg ctenaglia-ultimate_tras.jpg
3

Intel GMA 3100 Lista de Combatibilidade (Jogos)

Jogos Single/Multiplayer.

Alarm Für Cobra 11 - Crash Time (Não executa)
Age of Empires
Age of Empires II
Age of Empires III (Não habilite e opção Shader Model em Graphic Options, porque o jogo não abre mais)

Age of Mythology
Area 51
Battlefield - Vietnam
Battlefield 1942
Battlefield 1942 - Secret Weapons
Battlefield 1942 - The Road To rome

arkGreen">Battlefield 2 (por hermano_br, mas com Swiftshader)
Black & white (por hermano_br)
Black & white II (por hermano_br)

Blood Rayne 2 (Não executa)
Cabela´s Trophy Buck 2008
Call of Duty

Call of Duty 4 (Nem sei porque testei uaehauehaueh... nem abriu, óbvio.)
Chaos Legion
arkGreen">City Life (usando o 3d analyze, por hermano_br)

Civilization IV (por hermano_br)
Colin McRae Rally 2005 (por HawkEdge)
Conflict - Vietnam
Counter Strike 1.6
Counter Strike - Condition Zero Deleted Scenes (joguei esse e tinha esquecido, ele roda perfeito)
Counter Strike - Condition Zero

Crash Day (Impossível jogar, até com tudo no mínimo, muito lento)
Deer Hunter - The Season 2005
Deer Hunter Tournament (só roda bem em safe mode aqui)
Doom III (Só vi no começo tava com o fps baixo entre 10 e 20)
El Matador (Dá um erro logo quando termina o loading pra dar ínicio ao jogo)
F.E.A.R - Extraction Point
F.E.A.R - First Encounter Assault Recon
F.E.A.R - Perseus Mandate
Fable - The Lost Chapters
Fahrenheit
FarCry
FIFA 2008
Flatout
Flatout II
Football Manager 2007
(por HawkEdge)
Football Manager 2010 (por HawkEdge, ele ficou surpreso que pegou xP)
Freedom Fighters
Gothic 3 (Não executa)
Grand Theft Auto
Grand Theft Auto II
Grand Theft Auto III
Grand Theft Auto Vice City
Grand Theft Auto San Andreas

GT Legends (por hermano_br)
GTR 2 (por HawkEdge)
Gun
Half Life
Half Life - Blue Shift
Half Life - Opposing Force

Half Life - Source Enchaced (com os mesmo crash do Half Life 2, Deve se por causa da Engine.)
Half Life II (Com crash na maioria dos loadings, Mas se você abrir de novo o jogo e for passar pelo mesmo loading, passa sossegado, mais dá o mesmo crash no proximo. ._.')
Hidden and Dangerous - Deluxe
Hidden and Dangerous 2
Hitman - Codename 47
Hitman 2 - Silent Assassin
Hitman - Contracts
IL-2 Sturmovik 1946
JFK Reloaded
arkGreen">Just Cause (Com 3danalyze, marcar emulate hw tnl caps e em "anti-detect" mode marcar shader e textures.)
(por hermano_br)
Live for Speed (por hermano_br)
Mafia (Roda perfeito mais oque tira a vontade de joga e a voz dos pedestres, parecem de formiga de filme falando ._.')
Manhunt
Manhunt 2 (Não executa)
Marines Sharpshooter IV
Max Payne
Max Payne II
Medal of Honor - Allied Assault
Medal of Honor - Allied Assault : Breakthrough
Medal of Honor - Allied Assault : Spearhead

Medal of Honor - Pacific Assault (Aqui fico sem sombra, sombra nenhuma, mais jogavel.)
Mount & Blade Warband (por hermano_br)
Need for Speed Most Wanted
Need For Speed Undercover
(por wonderwall)
Need for Speed Underground
Need for Speed Underground II

Painkiller (Não executa)
Pes 2010 (por hermano_br)
Psi Ops - The Mindgate Conspiracy

Quake IV (FPS baixo entre 15 e 20)
Rainbow Six 3 - Raven Shield
Rfactor (por hermano_br)

Scarface (Não executa)
Shade Wrath Of Angels
Sim City IV (por hermano_br)
Soldier of Fortune II - Double Helix
Splinter Cell
Spore (por hermano_br)

Sniper - Art Of Victory (O chão fico tudo Verde cor de caneta marca texto O_o)
Sniper Elite
S.T.A.L.K.E.R - Call of Pripyat
S.T.A.L.K.E.R - Clear Sky (Lento com uns 10 de fps)
S.T.A.L.K.E.R - Shadow Of Chernobyl
SWAT 4

The Elder Scrolls - Morrowind (por Cy4n0-Z)
The Punisher (Não executa)
The Sims III (por sephiroth0)
The Suffering (Não executa)
Thief - Deadly Shadows
Time Shift (Não executa)
ToCA Race Drive 3 (por HawkEdge)
Tomb Raider - Legends
Unreal Tournament 2003
Unreal Tournament 2004
Warcraft III - Reign of Chaos e o Frozen Throne (por meilk)
World of Warcraft - Wrath of the Lich King (por flashmare)

Jogos Online

Aika
Cabal
Combat Arms
Counter Strike Online
Grand Chase Season III (por Umbrorz)
GunBound Season II
Lineage II (por Umbrorz)

Mu
Perfect World
Point Blank
Ragnarök

Rakion (Com alguns bugs de video, causados por alguns mapas ou monstros)
Tibia (por Umbrorz, nem precisava coloca na lista auheauehauhe... mais valeu pela ajuda Umbrorz. )
The Duel

War Rock (Lento e com bugs)
WolfTeam
WYD (With Your Destiny)




OBS: Nos jogos que tem "(Não executa)" na frente,vocês poderiam ajudar a incrementar a lista testando com programas como o
Swiftshader e 3DAnalyzer pra ver se excuta o jogo pelo menos, eu ficaria agradecido. =)




Negrito : Rodou perfeito, alguns nem tanto mais jogável.
Negrito Azul : Injogáveis ou rodou com problemas.
arkGreen">Negrito Verde : Rodou com programas.
Negrito Vermelho : Não executou ou executou e deu erro.
3

Nvidia Kepler e variantes

Não existe muita informação sobre o Kepler da Nvidia. Isso inclue data de lançamento e nomenclatura oficial. Assim ela pode ser chamada série 600 ou 700. Como referência podemos usar a seguinte correlação:

GK112 - GTX590
GK110 - GTX580
GK104 - GTX570
GK106 - GTX560
GK107 - GTX550
http://www.techpowerup.com/155727/NVIDIA-GeForce-Kepler-Roadmap-Compiled.html


Rumores que estão circulando sobre o GK104/GK107:

PCB e conectores do GK104
http://www.techpowerup.com/161597/NVIDIA-GK104-PCB-Drawings-Unusual-Power-Connector-Designs-Surface.html

PCB do GK104
http://www.techpowerup.com/161601/GK104-PCB-Pictured-in-Full.html

GK104 pode ser chamado GTX670 Ti e ter 6+8pin
http://www.techpowerup.com/161311/GK104-Board-Draws-Power-From-6+8-Pin-Connectors-3+2-VDD-Phase-Power-Supply.html

Esboço do GK107
http://www.techpowerup.com/160932/NVIDIA-GeForce-Kepler-GK107-Reference-Board-Sketched.html

Data de lançamento do GK104 em 23 de março
http://www.techpowerup.com/161587/GK104-Based-Products-Arriving-March-23.html

Estimativa do "die size" do GK104 é de aproximadamente 320mm2
http://www.techpowerup.com/161790/GK104-Die-Size-Estimated.html


[]s
3

[Tutorial Nvidia] Habilitando 75Hz de atualização em todos monitores FullHD pela conexão DVI

O porque desse tutorial ?

Porque operando diversos computadores percebi que tem muita gente com monitor FullHD (1920x1080) e placa de video da Nvidia, mas utilizando o monitor em apenas 60Hz na conexão DVI-D

O que vou ter de ganho mudando a atualização de 60Hz para 75Hz ???

Vai ter um ganho real de 15FPS em jogos (NÃO É GANHO DE DESEMPENHO, É GANHO DE VISUALIZAÇÃO DA IMAGEM)

sabemos que monitores em 60Hz só podem exibir no maximo 60FPS
e isso é o que seu olho vai conseguir capturar mesmo que a placa de video esteja enviando uma taxa de quadro muito alem disto, já trabalhando em 75Hz o monitor será capaz de exibir de formal real que o seu olho consiga capturar 75FPS , ou seja, 15 quadros a mais. (obs.: pouco importa se sua placa de video esta processando 200FPS em determinado momento, a exibição real de FPS sempre estara limitada a taxa de atualização do monitor LCD)

Segue tutorial

1- Primeiro acesse a opção (Criar resolução personalizada)

2- Copie os valores abaixo


Imagem

3- Pressione Testar se a tela piscar uma vez e a imagem apareceu normal é porque seu monitor suporta a configuração,
se pressionar testar e ficar mais de 2 segundos preta e porque o monitor não suporta, mas não se desespere depois de alguns segundos se não funcionar o driver voltara ao normal.

4- Aplique a configuração

Imagem

5 - Como saber se realmente Funcionou ???

A forma mais simples é acessar o "menu visor" no monitor (MENU AONDE CONFIGURA O BRILHO E COR DO MONITOR) sempre tem uma aba de informação dizendo o status da conexão atual (segue foto)


Imagem

A segunda forma é deixar o sincronismo vertical ligado no driver da Nvidia, habilitar o Vsync em algum jogo e com um contador de quadros (ex.: Fraps) você vai ver que o jogo terá os FPS limitados a 75 e não mais 60FPS.

Imagem

é isso GALÉRA FUI !!!
© 1999-2024 Hardware.com.br. Todos os direitos reservados.
Imagem do Modal