Gráfica nVidia RTX 4000 séries "Ada" (Modelos SUPER lançados)

Gosto é destes titulos:

NVIDIA RTX 4090 2.85 GHz at stock, less power use with DLSS3


Mas eles não vêm que está cpu bound? É que mesmo na imagem dá para ver gpu usage a 76%... O DLSS3 não reduz o consumo da gráfica, obviamente que quando atinges um frame lock ou um bootleneck em algum lado o gpu usage vai reduzir logo a gráfica vai consumir menos energia.

Ás vezes pergunto-me se a malta que faz estas noticias usa o cérebro. É que as conclusões que tiram não fazem sentido nenhum.

A conclusão a que chego nessa noticia é que os ganhos vão ser bem maiores do que de 60 para 170fps em situações onde o cpu/ram não é o bottleneck. E ao não estar gpu bound o input lag também devia ser bem inferior tendo em conta o frame rate, apesar de não sabermos a ecrã/rato usado penso que seja o novo 1440p360hz + superlight, a mesma coisa que usaram para os outros testes, como o overwatch 2.
E que 2850mhz é muito bom para uma 4090 capada a 450w, isso sem power limits deve dar 3ghz facilmente.

Mas depois também há isto...



Provavelmente cpu bound...
A quantidade de zonas com artefactos... para um "demonstrar o que conseguimos" não foi muito bem pensado. Artefactos nas pernas, nos vidros, no metal, nos reflexos e no "A"... que raio?!
 
Agora que já sairam os dados tecnicos dos GPUs é dificil não reparar que a RTX4080 12Gb é basicamente uma "cópia" da RTX3060 12Gb.

Area do chip, Bus, Memoria... E passa de 400$ para 900$ e sobe 2 tier no nome....
 
Assim é capaz de começar a fazer mais sentido...

Pois aquela segmentação/nomenclatura das gráficas parece ser uma decisão de última hora

- AD 102 - versão aproveitada - 4090
- AD 102 - versão full - L40 RTX6000

- AD 103 - 4080 16GB

- AD 104 - versão full - 4080 12GB
- AD 104 - versão aproveitada - mobile? 4070Ti?
 
Ninguém no seu perfeito juízo vai querer jogar o cyberpunk, mas há malucos para tudo.

Eu joguei e gostei bastante. Nunca me foi diagnosticado ser maluco, mas nunca sabe :D

PS: Não esquecer que aqueles 22fps, são é a 4K com todos os settings no máximo, incluindo o RT, na zona mais pesada do jogo. Peguem numa 3090 Ti ou 6900XT e vejam quantos fps's vão conseguir ter nas mesmas condições.

Como foi explicado, a Nvidia foi buscar um exemplo extremo, para conseguir demonstrar o que o DLSS 3.0 pode fazer. Transformar algo completamente injogavel, em algo totalmente jogavel.
 
Diz muito o Cyberpunk ser o exponente máximo da tecnologia em jogos....
Não se lhe nega a beleza, mas o poder gráfico que precisa para brilhar mostra uma optimizaçao muito má.
A Nvidia não deveria ter mostrado que a sua placa de topo não é capaz de correr o jogo sem artifícios.
A apresentação serviu para promover o DLSS e dizer a quem tem uma 3090 que não vão cheirar nada.
 
AD102 full não existe ainda, nem a A6000. Deve vir em outra versão profissional + Titan/4090 ti.
uma versão mais cortada será a 4080 ti, de 20 GB maybe...

Outras versões AD103 full deve ir exclusive portáteis.

AD104 deve ser usado em 4070 e eventualmente 4060 ti. Agora uma 4070 ti fica meio perdido. No fundo demonstra que a 4080 12GB é na verdade uma 4070 / 4060 ti. um AD103 "cortado" seria a 4070 ti.

Só se lá pro ano a nVidia renomear a 4080 12GB para 4070, nem que reduza os clocks e tdp um pouco.
 
A interpolação de frames não é nada de novo para quem joga em TVs. Já existe há anos e nos últimos tempos existiu um grande avanço em marcas como LG e Samsung que permitiram a interpolação de frames sem que houvesse aumento de input lag e response time nos jogos.

Tal como aqui, a interpolação de frames nas TVs não é apenas feita "à força bruta", mas sim recorrendo à IA para gerar o frame "em falta". Técnicas como BFI existem há décadas para mitigar o problema, essas sim por "força bruta", mas entretanto foram substituídas pela interpolação por IA das respectivas marcas através de processadores de imagem dedicados para o efeito.

Isto para dizer que a Nvidia não descobriu a pólvora. Simplesmente está a utilizar técnicas mais avançadas para atingir o mesmo resultado. Como se pode ver nesse vídeo do Spider-Man, esta técnica ainda está muito verde e gera demasiados artefactos. Continuo a achar que seria possível de aplicar a mesma técnica nas RTX ou mesmo GTX anteriores. E aposto aqui com vocês em como a AMD o irá fazer gratuitamente para todos e para qualquer gráfica. É uma questão de tempo.
 
Última edição:
Algo que muita gente não está a falar, aqueles adaptadores. Porque 99% das pessoas nao vai ter das PSU's novas.
Está no timestamp:

E mais esta:

ZOTAC RTX 4090’s PCIe Gen5 power cable adapter service life is up to 30 connection cycles

According to ZOTAC, one should remove power cable adapter carefully and only when really necessary.

If you are one of those people who replace or remove graphics cards frequently, make sure to count how many times have the power cable adapter been used. ZOTAC has an interesting note on their website, claiming that the 4x 8-pin to 12VHPWR (the so-called PCIe Gen5 or 16-pin) power cable has limited service life up to 30 connects/disconnects.

Ou seja, há uma quantidade limitada de vezes que se pode remover e ligar o adaptador.
Não inspira confiança nenhuma.
 
Mas também quantas vezes removemos o adaptador?
No artigo:
If you are one of those people who replace or remove graphics cards frequently, make sure to count how many times have the power cable adapter been used. ZOTAC has an interesting note on their website, claiming that the 4x 8-pin to 12VHPWR (the so-called PCIe Gen5 or 16-pin) power cable has limited service life up to 30 connects/disconnects.
No meu caso diria que só o removo quando mudo de gráfica ou fonte.
Tu podes fazer um uso limitado no teu hardware, mas nem todos são assim.
Eu pessoalmente nao quero andar a contar as vezes que ligo e desligo um adaptador, muito menos com hardware de +1000€.

E vê o vídeo do gamernexus, que tambem estava no post, vai muito para além disso, problemas de temperatura, cabos que derretem, não inspira confiança nenhuma.
 
Area do chip, Bus, Memoria... E passa de 400$ para 900$ e sobe 2 tier no nome....

A 4080 12GB deveria ser de facto a 4070, mas não é preciso exagerar e dizer que é uma 3060.

A 3060 12GB faz 12 TFlops, a 4080 12GB faz 40 TFlops. É quase 4x mais.

Em termos de memoria, a 3060 faz 360 GB/s e a 4080 faz 500GB/s, mas não nos podemos esquecer que a 4080 tem muito mais Cache que a 3060.

Seja como for, os preços são ridículos, isso não há volta a dar. O ideal era a venda das placas falhar redondamente para os colocar a pensar na vida.
 
No artigo:


Tu podes fazer um uso limitado no teu hardware, mas nem todos são assim.
Eu pessoalmente nao quero andar a contar as vezes que ligo e desligo um adaptador, muito menos com hardware de +1000€.

E vê o vídeo do gamernexus, que tambem estava no post, vai muito para além disso, problemas de temperatura, cabos que derretem, não inspira confiança nenhuma.
Já se falou várias vezes dos cabos aqui. Esses cabos que fala no video do gamer nexus são antigos, das 3090 TI, visto que ainda nem tinham sido apresentadas as 4000..
Em relação ao da zotac, isso é o adaptador deles, não significa nem têm nada a haver com os adaptadores das outras fabricantes.
No video oficial da nvidia, é usado um adaptador...

 
Os atuais conectores de PCI-E também só tem um ciclo de vida util de 30 conexões

FdTGI0EXkAk2gsK


É standard da industria, mas na realidade estão só a proteger-se a si mesmos. A conexão é o ponto mais fraco da ligação, se o cabo for de qualidade, o potencial ponto de falha é a conexão. Se ganhar folga temos um problema, mas já era assim na atual geração de cabos pcie. Era costume de acontecer com cabos chineses em miners que andavam sempre a ligar e a desligar da fonte e/ou gpus
 
Já se falou várias vezes dos cabos aqui. Esses cabos que fala no video do gamer nexus são antigos, das 3090 TI, visto que ainda nem tinham sido apresentadas as 4000..
Em relação ao da zotac, isso é o adaptador deles, não significa nem têm nada a haver com os adaptadores das outras fabricantes.
No video oficial da nvidia, é usado um adaptador...


Como sabes que aquilo é exclusivo para a zotac?
Não fazes ideia. Duvido que outros AIB's façam magia.

Os atuais conectores de PCI-E também só tem um ciclo de vida util de 30 conexões


É standard da industria, mas na realidade estão só a proteger-se a si mesmos. A conexão é o ponto mais fraco da ligação, se o cabo for de qualidade, o potencial ponto de falha é a conexão. Se ganhar folga temos um problema, mas já era assim na atual geração de cabos pcie. Era costume de acontecer com cabos chineses em miners que andavam sempre a ligar e a desligar da fonte e/ou gpus

Isso está no artigo, mas é a primeira vez que a Zotac fala sobre o assunto, secalhar para se tentar precaver.
It his does not change the fact that it is still the first time ZOTAC has made such a claim for their power connector.
A minha conclusão ainda é a mesma, não inspira confiança.
Early adopters, boa sorte.
 
A 4080 12GB deveria ser de facto a 4070, mas não é preciso exagerar e dizer que é uma 3060.

A 3060 12GB faz 12 TFlops, a 4080 12GB faz 40 TFlops. É quase 4x mais.

Em termos de memoria, a 3060 faz 360 GB/s e a 4080 faz 500GB/s, mas não nos podemos esquecer que a 4080 tem muito mais Cache que a 3060.

Seja como for, os preços são ridículos, isso não há volta a dar. O ideal era a venda das placas falhar redondamente para os colocar a pensar na vida.

Exacto, a potencia e até o tamanho do die lhe coloca como uma 4070. Claro que o bus é mais curto, mas a L2 aumentou bastante, tal como nas RNDA que a 6700 veio também com 192 bits, mas encarando a 3070 de 256.
 
Back
Topo