aureoh
Cyber Highlander
Registrado
32.9K Mensagens
1.3K Curtidas
Isso e mentira,nao tem nada a ver.A unica diferença,e que em 16 bits sao exibidos aproximadamente 65.000 cores,e em 32 bits sao exibidos aproximadamente 17 milhoes de cores.
Rogério
Geek
Registrado
3.3K Mensagens
2 Curtidas
Fico com a mesma opinião do Aureoh, não tem nada a ver de danificar o monitor. :wink:
machadinho
Membro Senior
Registrado
217 Mensagens
0 Curtidas
Eu tenho um monitor Philips 15". Em configurações de video tem duas opções: 16 bit media e 32 bit máxima. A 16 bit estava a 85Hz, passei para a opção 32bit máxima a 60Hz. Notei uma grande diferença para melhor na definição de cores, inclusive nos jogos.
Estou com o monitor trabalhando assim a mais de 4 meses e tá beleza.
Conversando com um técnico ele me disse que posso deixar assim sem problemas, pois não teria (segundo ele) nada a ver com a vida útil do monitor.
CBS
Membro Senior
Registrado
293 Mensagens
0 Curtidas
concordo com os dois (tres hehe atrazei!)colegas!
agora o meu olho naum consegue ver muinta diferença e o desempenho muda bastante se vc tem uma maquina e placa vga humilde!
Abit KN9 / Athlon 64 3200+ / GF 8600 512MB / 1024MB DDR2 / Segate sata 7200 160GB / HP LaserJet 1200 /
Geraldomanau...
Veterano
Registrado
1.1K Mensagens
3 Curtidas
concordo com os dois (tres hehe atrazei!)colegas!
agora o meu olho naum consegue ver muinta diferença e o desempen...
É necessário algum software ou jogo que utilize realmente o padrão de cores de 32 bits (um bom exemplo, é o Unreal Tournament). Aeh você será capaz de notar a diferença, porém, isto tem um preço pois exigirá mais desempenho de sua placa de vídeo, podendo ocasionar uma perda de performance considerável, dependendo do caso.
Portanto, a não ser que você tenha uma placa 3d "porreta" procure utilizar 16 bits de cor mesmo. Certo?
PC1)Athlon XP 2800+ 2 GB DDR400, MSI KT880, Geforce Radeon 9550
PC2)Pentium 4 2.8 GHZ, 512 MB DDR, MSI PT800, 6200 256
PC3) Duron 850, 512 DDR400, Soyo Dragon KT266,FX5200,discada "banda fina"