Gráfica Nvidia Ampere 8nm (RTX 3000 series)

Pois, já desconfiava que aqueles 10GB da 3080 eram um motivo de preocupação, e já temos um jogo que ainda não foi lançado e já pede mais. E a 3090 está fora do meu orçamento. >(

Então a Nvidia ia oferecer esse mesmo jogo na sua "flagship" se a mesma não tivesse memoria suficiente para comer aquilo ao pequeno almoço (vram speaking) para a resolução que dizem ser rainha, 4k ?
A mim parece-me que esses 11GB estão lá por ser a memoria da 2080ti, caso contrário(o que não acredito)...despedia já o estagiário :biglaugh:


O artigo do link acaba assim:
If you plan on getting one of the new 3000 series graphics cards from Nvidia, you'll chew through Watch Dogs Legion with ease.
 
Sim, faz sentido. Para 1440p, pede a RTX 2070 que tem 8GB de VRAM.

No entanto, não deixa de ser irritante que uma next-gen já esteja a partida no limite para quem queira jogar 4K.
 
Última edição:
Quanto queres apostar que o jogo nem os 10GB vai precisar?

Parece-me óbvio que os 11GB estão lá porque é a vram que a 2080 Ti tem.

PS: Este jogo suporta DLSS 2.0.

Teoricamente até a 2060 vai conseguir correr a 4K com os seus 6GB.
 
La esta.. e o mesmo conceito.. ele pode carregsr aquilo tudo... Se os vai depois usar.. e outra historia...
O ultimo exemplo que tive, foi o witcher 3 con uma rx5700xt que em high/ultra a 1080p UW e que carregava 7Gb de memoria.. se os usava.. duvido muito...
 
O problema é que o Watch Dogs Legion tem um Ray-tracing do mais pesado que se viu até hoje.
Quando o Digital Foundry experimentou o jogo, reclamaram que jogo corria a 30 fps, a 1080p, numa 2080Ti......
 
A propósito da memória ser aparentemente curta, será que há algum benefício da arquitetura I/O que diminui a pegada de RAM usada pelos jogos, e consequentemente ser necessária menos RAM? Acho um lapso demasiado grande para uma empresa como a NVIDIA. Ou não temos acesso á informação toda ainda, ou o plano para as ti/super está mais que óbvio
 
É o meu caso, vou manter o monitor de PC 1080p, acho que uma 3070 acaba por ser um bocado de desperdício, uma 3060 dá bem conta do recado.
Julgo que não será assim muito desperdício principalmente se queres jogar com RT ligado e jogos multiplayer, além de ficares com gráfica durante alguns anos. Além disso , no meu caso irei usar o Blender e Unity logo convem ter uma gráfica de jeito para desenrascar...
De qualquer forma vamos esperar pelos benchmark dos "bichos"...
 
A propósito da memória ser aparentemente curta, será que há algum benefício da arquitetura I/O que diminui a pegada de RAM usada pelos jogos, e consequentemente ser necessária menos RAM? Acho um lapso demasiado grande para uma empresa como a NVIDIA. Ou não temos acesso á informação toda ainda, ou o plano para as ti/super está mais que óbvio

Sim, existem algumas novas tecnologias que vão ajudar a poupar a necessidade de vram. Uma é o mesh shaders que tenta retirar o máximo de geometria em cada frame, logo no inicio do pipeline de renderização.
Outra é o Sampler Feedback, que divide as texturas em "tiles" e apenas carrega os tiles que vão ser necessários, em vez de carregar a tectura completa.
E temos o Direct Storage que vai melhorar a API de acesso a armazenamento, nomeadamente em relação a SSDs, resultando em mais IOPs e maiores velocidades reais de escrita e leitura em jogos.
 
Estou apaixonado por esta linha da Asus...
:x2:

1598956814910.jpg
1598956815332.jpg

1598956813347.jpg
 
Tanto? O Witcher 3 com tudo no máximo a 1080p, não me passava dos 2.5GB.

Penso que deve estar a referir-se da RAM e não da VRAM.

Quanto queres apostar que o jogo nem os 10GB vai precisar?

Claro que não haverá problemas em correr 4K, nem com a geração atual. A questão é aquilo que terás de ceder para teres os visual settings e FPS no seu ideal nos jogos dos próximos anos. Irrita-me que a suposta flagship já parece roçar no limite.
 
Última edição:
Back
Topo