Gráfica Nvidia Ampere 8nm (RTX 3000 series)

Como já se referiu aqui, para 4K a RTX 3070 não é uma boa ideia, já os 10GB da RTX 3080 ainda é uma questão de ver, o rendimento bruto de ambas suporta 4K, agora a 3070 não poderá escolher a opção de texturas em Ultra em 2021 e a 3080 em 2022, isso e outras opções como SSAA.. mas quem é que vai correr AA a 4K?!

Resumindo, é um limite, sim, agora se é um limite relevante? Nem por isso, o que não falta são videos e comparações de High / Ultra em que a unica diferença são os 30% a menos de rendimento, isso e toda esta discussão em torno de 4K, não 1440p e ainda há muito povo a 1080p sem planos para mudar tão cedo.
 
Epa sinceramente essa questão da RAM sou da opinião que quando for precisa tanta RAM já as placas n vão conseguir correr os jogos no máximo de qualquer maneira...
Ainda me lembro quando comprei as minhas nvidia 570 em que muito pessoal dizia que devia ter optado pelo equivalente da AMD que na altura tinha 2GB contra os 1280 das gtx570.... O que é certo é que quando os jogos deixaram de correr bem nunca foi por falta de RAM mas sim pk as placas já n davam mais [emoji23][emoji23]
 
Última edição:
O objectivo é invalidar o argumento que 10gb são suficientes em 2020 tal como andavas a afirmar em diversos tópicos. Não é nada contra ti, mas sim contra o argumento. Vais pagar 800 euros ou mais por uma placa que não te garante a fidelidade gráfica máxima ainda nos dias de hoje, quanto mais no futuro. E nos jogos onde estás a olhar só para a vram budget alocada pelo jogo, muitas vezes não estás a ver o texture streaming que o motor do jogo definiu assim que detetou a quantidade de vram disponivel.

10gb não são suficientes e contrariamente ao que se diz, existem vantagens tangiveis nos jogos atuais em teres mais vram disponivel.

@_SkyWaLKeR_ o que pus em cima mostra-te exatamente o contrário.
 
O objectivo é invalidar o argumento que 10gb são suficientes em 2020 tal como andavas a afirmar em diversos tópicos. Não é nada contra ti, mas sim contra o argumento. Vais pagar 800 euros ou mais por uma placa que não te garante a fidelidade gráfica máxima ainda nos dias de hoje, quanto mais no futuro. E nos jogos onde estás a olhar só para a vram budget alocada pelo jogo, muitas vezes não estás a ver o texture streaming que o motor do jogo definiu assim que detetou a quantidade de vram disponivel.

10gb não são suficientes e contrariamente ao que se diz, existem vantagens tangiveis nos jogos atuais em teres mais vram disponivel.

@_SkyWaLKeR_ o que pus em cima mostra-te exatamente o contrário.
O teu argumento não faz sentido porque a amd só tem 16GB logo e vendo a imagem em cima tambem já esta morta a nascença, e tendo pior compressão que a nvidia.
 
Existe vídeos comparativos da 3080 a correr esse jogo com exatamente os mesmos settings para se ver as diferenças tangíveis entre os 10GB e os 24GB?

Fiquei bastante curioso para ver como a 3080 se porta nesse cenário em que a 3090 usa os 22GB. Nas placas Amd deve equivaler a 24 ou 25GB.
 
Se houvesse limitaçao a 3080 com 10Gb não ganhava em 4k vs AMD e como vs 3090 24GB não fica longe.
Durante próximos 2 anos deve dar a vontade e ainda com vantagem para nvidia que tem melhor compressão e largura para 4k.
exacto a largura de banda e os ROP`s é muito mais importante.
Edit: pela logica da imagem acima a 3080ti so tem 20GB...então ela ainda nem saiu e já esta limitada!
 
Pois falam tanto na RAM mas se fosse esse o problema não teria a nvidia superioridade em quase tudo o que é 4k ou seja logo na resolução que se usa mais RAM...
Mas sinceramente nem me vou ralar mais em discutir isto... Eu cá tenho a certeza que os 10GB me vão chegar até sair a rtx 5080 [emoji23][emoji23]
 
Muito gostam vocês de ir buscar a AMD para o tópico da nvidia. @_SkyWaLKeR_ está explicado o viés, compraste a 3080. Tudo bem, e sim os 10gb vão te chegar até sair a 5080 ou até mais do que isso. Mas chegarem-te para jogares um titulo no máximo de fidelidade que oferecer, aí possivelmente já não vais.
 
Muito gostam vocês de ir buscar a AMD para o tópico da nvidia. @_SkyWaLKeR_ está explicado o viés, compraste a 3080. Tudo bem, e sim os 10gb vão te chegar até sair a 5080 ou até mais do que isso. Mas chegarem-te para jogares um titulo no máximo de fidelidade que oferecer, aí possivelmente já não vais.
Ninguem aqui esta a tentar ir buscar a AMD como forma de falar mal dela atenção!
As pessoas usam a AMD porque para alem de ser a concorente a nvidia tem a "suposta" vantagem de ter mais Vram que em teoria daria vantagem a AMD é so isso visto não haver mais marca nenhuma neste mercado de GPU`s.
O user que postou aquela imagem no twitter tem la uns dados interressantes da falta de largura de banda da amd em 4k que sera o que leva a diferença (em parte) que vemos na 3080 vs 6800xt.
 
Ninguem aqui esta a tentar ir buscar a AMD como forma de falar mal dela atenção!
As pessoas usam a AMD porque para alem de ser a concorente a nvidia tem a "suposta" vantagem de ter mais Vram que em teoria daria vantagem a AMD é so isso visto não haver mais marca nenhuma neste mercado de GPU`s.
O user que postou aquela imagem no twitter tem la uns dados interressantes da falta de largura de banda da amd em 4k que sera o que leva a diferença (em parte) que vemos na 3080 vs 6800xt.
Apesar dos 10Gb melhor compressão que poupa na vram , consegue oferecer melhor desempenho em 4k , pk a 6800xt falta pernas na largura nessa resolução apesar de se portar bem.
Daqui uns tempos falamos se os 10gb não dão. Nvidia deve estar a dormir talvez .
 
Muito gostam vocês de ir buscar a AMD para o tópico da nvidia. @_SkyWaLKeR_ está explicado o viés, compraste a 3080. Tudo bem, e sim os 10gb vão te chegar até sair a 5080 ou até mais do que isso. Mas chegarem-te para jogares um titulo no máximo de fidelidade que oferecer, aí possivelmente já não vais.
Claro k por essa altura não vai correr tudo no máximo, mas vai ser porque o Gpu ja n vai ter cavalagem para o jogos dessa altura e não porque falta RAM.... Se fosse só uma questão de RAM lançavam gráficas que desse para expandir a RAM como já fez a matrox uma vez e quando a placa ficasse lenta era só comprar mais RAM lol
 
O @CapFrameX é alguém com bastante experiência e conhecimento no que a gpus diz respeito. Tudo o que ele diz acerca tanto da vram das nvidia como da performance das navi, é algo a que devemos prestar atenção.

Quem comprou uma 3080 não se deve sentir mal por isso, um texture streaming aqui e acolá não vai ser isso que vai estragar a sua experiência de gaming. Mas a nivel de engenharia do produto a nvidia podia ter dado mais margem de manobra as suas gráficas, acho que o preço da GDDR6X falou mais alto.
 
Claro k por essa altura não vai correr tudo no máximo, mas vai ser porque o Gpu ja n vai ter cavalagem para o jogos dessa altura e não porque falta RAM.... Se fosse só uma questão de RAM lançavam gráficas que desse para expandir a RAM como já fez a matrox uma vez e quando a placa ficasse lenta era só comprar mais RAM lol

Falando na compressão.
Tensor Memory Compression: NVCache is interesting, but Tensor Memory Compression will be on Ampere, and will reportedly use Tensor Cores to both compress and decompress items that are stored in VRAM. This could see a 20-40% reduction in VRAM usage, or more VRAM usage with higher textures in next-gen games and Tensor Memory Compression decreasing that VRAM footprint by 20-40%.
 
Estou a ver que cada vez mais vai ser preciso ter mais cuidado na comparação entre gráficas, e não focar apenas nos FPS.

O que o Nullus está a falar é sobre qualidade de imagem, não sobre frames por segundo.

O intuito aqui é saber se não haverá uma redução na qualidade de imagem (através do tal Texture Streaming) devido à Vram disponível nas atuais gráficas, algo que uns charts de FPS não mostrem?

Existindo já jogos que usem mais do que a Vram atualmente disponível nas atuais gráficas da Nvidia (a confirmar, pois parece-me muita falta de optimização no caso dessa screenshot do novo Call of Duty), acho que um deep dive nisto seria relevante para as conversas que por aí andam. Esse link/screenshots do CapFrameX são referentes a um estudo da pcgameshardware de quase 2 anos, referente à Vram da 2060. Gostava de ver algo semelhante sobre as gráficas atuais, pois não sei se o mesmo estará a acontecer atualmente.

E para os Nvidia fanboys que aí andam :D , notem que isto é válido para a AMD também - visto poder haver diferenças na implementação de RT e nos diversos níveis de "qualidade" suportados por diferentes modelos, assim como tecnologias como Fidelity FX e DLSS, existe também valor em futuras comparações de image quality entre gráficas, e não apenas os tradicionais FPS charts.
 
Sem dúvida que os 20GB vão ser o ideal. A questão é que provavelmente vai mandar-se para os 1000 euros... Pessoalmente e embora não gostando muito da ideia dos 10GB parece me um bom equilíbrio em preço/performance
 
Ainda sobre a discussão de vram e dos 10gb serem suficientes:

E que a 3090 e as Titan de 48GB sairam completamente já ultrapassadas porque não conseguem correr a 8K com tudo no máximo. Isso para mim é que é problematico e quase não consigo dormir.
Isto é o que os psicologos chamam de problemas de paises desenvolvidos. Não temos nada para falar de substancial, falamos sobre coisas que não percebemos técnicamente.
Daqui a dias alguem vai colocar um print dos parafusos de uma Zotac 3080 Turbo GTi a dizer que é por causa deles que a gráfica dá mais 20Mhz no turbo e vamos passar 2 semanas a discutir até à exaustão o porque dos parafusos não serem produzidos em ligas mais leves e pequenas porque já todos sabemos e somos especialistas em parafusos desde pequeninos.

Eu devo ser mesmo um alien porque jogo tudo a 4K na minha grafica completamente obsoleta do ano passado com APENAS 8GB...

Back on topic. Temos gráficas em quantidade no inicio do proximo ano se o Covic não avançar mais na Asia.
 
Back
Topo