Logo Hardware.com.br
um cara chamado Z
um cara cham... Novo Membro Registrado
14 Mensagens 1 Curtida

4K com menos qualidade que 1080P?

#1 Por um cara cham... 21/01/2021 - 22:55
eae,

Ta, vou tentar explicar o que ta acontecendo antes de chegar no ponto... Depois de um tempo que comecei a postar vídeos no youtube, comecei a me preocupar com as qualidades "gráficas" dos vídeos (como os vídeos dos outro canais tinham mais qualidade, sendo que o meu e os deles eram em 1080p). Então comecei a descobrir como renderizar um vídeo do jeito certo no sony vegas, a questão das taxas de bits, sobre o youtube tirar um pouco da qualidade, etc...

O que acontece mesmo, é que depois de um tempo, comecei a ficar "paranoico" com essa questão de qualidade (provavelmente pelo fato de eu jogar na qualidade "certa"; 1920x1080p, e renderizar na mesma qualidade, mas dai no youtube, havia uma queda muito grande de qualidade.)

Então deixei um padrão na hora de gravar, que eu sabia que sairia com uma qualidade descente no youtube, e o padrão é o seguinte:

Gameplay gravada pelo Nvidia GeForce Experience: 2160p (4k) - 60fps - 50 mbps

O que como eu disse, já era algo descente e melhor do que antes. E só pra constar, o vídeo era renderizado e publicado em 4k*

O que acontece é que eu ainda continuava paranoico sobre essas questão de qualidade... Então resolvido fazer o teste definitivo! Peguei algumas gravações feitas pelo GeForce, editei elas, ai então na hora de renderizar, renderizei um vídeo em 4k e outro em 1080p, e postei no youtube para ver a real diferença. (vou dar informações mais especificas de como ficou os 2 vídeos*)

Gameplay gravada pelo Nvidia GeForce Experience: 2160p (4k) - 60fps - 80 mbps

Renderização do vídeo em 4K: Magic AVC/AAC MP4 (Internet 4K2160p 59.94 fps - nvidia nvenc) - 4K 2160 - Frame Rate 59,640 (60 fps) - Maximum bps: 80.000.000, Minimum bps: 60.000.000 - (existem outras informações, mas isso é o suficiente. Deixei o maximo e o minimo de bps em 80 e 60 porque achei que seria ok*)

Renderização do vídeo em 1080: Magic AVC/AAC MP4 (Internet HD1080p 59.94 fps - nvidia nvenc) - HD 1080p (1920x1080) - Frame Rate 59,640 (60 fps) - Maximum bps: 50.000.000, Minimum bps: 30.000.000 - (resolvi deixar o máximo e minimo em 50 e 30 bps, por que essa era qualidade que eu usava na hora de gravar os vídeos em 1080p através do GeForce Experience)

Resumindo essas informações: as gravações brutas da gameplay estavam em: 4K 2160p 60fps 80bps, e os vídeos foram renderizados em: 4k 2160p 60 fps 80-60bps, e o outro em: 1080p(1920x1080) 60 fps 50-30bps.

E antes de terminar dar upload nos vídeo no youtube, eu tinha certeza que o vídeo em 4k teria um qualidade maior (já que está em 4k e 80-60bps), mas só queria ver o quão grande seria essa diferença. Já como eu tinha dito, os meus vídeo tinham ficado com mais qualidades depois que comecei a postar em 4k...

MAS ADVINHA QUAL FOI A PO*A DO RESULTADO?

sim, o vídeo em 1080p ficou com mais qualidade que o 4k... (os dois na qualidade de 1080p durante o vídeo do youtube)

O que realmente quero entender, é se eu estou perdendo algo, se tem algo que eu não sei sobre o bit rate do youtube, etc... Porque essa minha paranoia, vem do fato de eu ver o vídeo de outros youtubers grandes no mesmo jogo, e sempre parecem com mais qualidade do que, o que eu consigo postar...

E para falar a verdade, to quase começando a acreditar, que o real segredo disso tudo, é só o bit rate mesmo, nem 4k ajuda...

(As duas imagens são a comparação das qualidades dos vídeos*) (compare os personagens perto da mira, sera mais visível a diferença*)

Anexo do post Anexo do post

Anexos

TerraSkilll
TerraSkilll Zumbi Moderador
4K Mensagens 1.2K Curtidas
#2 Por TerraSkilll
22/01/2021 - 12:00
Não analisei as imagens a fundo, mas superficialmente, as diferenças parecem aceitáveis, especialmente em movimento. Mas sou bem menos "paranoico" nesse aspecto.big_green.png

Você postou o bitrate do encoding selecionado no programa ou o que está no arquivo final (no Windows, clique direito > propriedades > aba detalhes) ? Pois isso pode variar, geralmente pro mínimo.

Nas minhas observações, bitrate faz sim muita diferença. Basicamente, quanto maior o bitrate, mais informação em cada quadro. Se você tem um bitrate similar em resoluções diferentes, a resolução menor vai ser mais beneficiada que a maior. No meu caso (gravação a 1080p), geralmente resulta em cores melhores.

Quanto à resolução, ter uma origem com qualidade maior (4k) e um arquivo final em uma resolução menor (1080p) resulta em qualidade maior no produto final. Mesma coisa de 1080 para 720, e assim por diante. Por isso, por exemplo, em grandes produções se grava em resoluções ridículas (12k, 16k) ou mesmo filme, sendo que o resultado final é em 4k (e, raramente, 8k). O encoding de uma mesma qualidade (4k -> 4k) basicamente comprime o arquivo, perdendo a qualidade no processo. E o Yotube só piora o problema, aplicando mais compressão ainda. O Linus Tech Tips comenta sobre isso, no seu vídeo sobre as câmeras Red que eles adquiriram (link), sendo esse o motivo de eles gravarem em 8k.

Da última vez que testei o nvenc, não gostei do resultado. Achei as cores meio lavadas, mas não tinha um pc poderoso, o que pode ter interferido na qualidade. Como atualmente uso uma placa de captura, os resultados são bem melhores, gravando geralmente à 1080p 50bps. Mas meu foco não é qualidade total, sou bem menos paranoico nesse aspecto (além de não ter como gravar em 4k atualmente).

PS: não achei muitas referências para as afirmações acima, então considere boa parte como opinião.

Abraço.
Contribua para um fórum melhor: pense antes de postar.
"It isn't a contest. Just enjoy the ride." -> Seth Vidal
Hardware.com.br no Youtube!
ZAKE
ZAKE Zumbi Registrado
2.6K Mensagens 1.1K Curtidas
#3 Por ZAKE
22/01/2021 - 12:39
um cara chamado Z disse:

2160p (4k) - 60fps - 50 mbps


Como lembrou o TerraSkilll, partir de um material com resolução maior, pra ter um material de resolução menor na saida, é muito mais tranquilo. Se tem muito mais informação para trabalhar e pode escolher o que descartar.

Isso acontecia quando trabalhava no Photoshop. Me passavem uma imagem de 96dpi e pra mandar pra grafica tinha que ter 300dpi. Tinha que usar filtros e efeitos pra melhorar a resolução. Tinha que emular as informações que faltavam na imagem.

Brinquei um tempo ripando filmes de DVDs. E entendi uma coisa.
Nos games, nos mapas e momentos com mais elementos se movendo na tela a engine exige mais processamento e cai o numero de FPS.
Na renderização dos filmes era importante escolher o VBR (bitrate variavel) no lugar do CBR (constante). As cenas de guerra, confusão, catastrofe etc, com mais elementos se movendo na tela não tinham perda de qualidade em relação ao resto do filme. Mas o arquivo final tinha um tamanho um pouco maior do que o esperado.

É obvio que não dá pra fazer milagre se quer um arquivo pequeno. Tem que ser razoavel nessa equação ...



..=======..=.
Você é livre pra fazer escolhas, mas é prisioneiro das consequências - Pablo Neruda.
esquiloesperto
esquiloesper... Cyber Highlander Moderador
7.1K Mensagens 2.2K Curtidas
#4 Por esquiloesper...
03/02/2021 - 14:47
Filmes possuem o Bitrate, mas não esqueça que a Web também tem.

E isto explica muito, porque a plataforma irá obedecer às parametrizações percebidas.
Por exemplo foram estabelecidos como mínimos e máximos:
[LIST=1]
Vazão de [60k ~80k] para 4K
Vazão de [30k ~ 50k] para HD
[/LIST]
Assim, o cliente só receberá o vídeo em 4K se a sua conexão alcançar no mínimo 60 Kbps (vazão) e de 30 Kbps para HD.
Quando inferiores, a plataforma usará o modo padrão, com redução e adequação automáticas de acordo com a taxa de vazão identificada no cliente.
Só é difícil enquanto estiver oculto! cool.png
Use a pesquisa


rolleyes.png  Navegar é preciso, viver... também.  smile.png
© 1999-2024 Hardware.com.br. Todos os direitos reservados.
Imagem do Modal