Gráfica nVidia RTX 4000 séries "Ada" (Modelos SUPER lançados)

E o céu é azul. :D
Basta pensar logicamente, fake frames claro que vão aumentar o inputlag. Isso foi aparente para mim do momento em que eles a apresentaram dlss 3.0.
Não vejo um mundo onde 3.0 consiga milagres com fake frames.
E bem a conversa do reflex, que tudo que faz é limitar o GPU a 99% em gpu bound cenarios, e prioriza frames duma maneira melhoriznha que o latency mode. Eu nem ligo reflex nem latency mode em jogos que nao estou GPU bound como valo, a performance piora. :007:
 
Última edição:
Parece que dlss 3 aumenta mesmo input lag, se virem nesse teste com dlss3 ligado não está gpu bound e tem muito mais fps, 53ms parece muito para a situação.

Se nesse exemplo o jogo está a correr a 170fps, isso significa que o jogo está a correr a 85fps reais + 85fps criados pelo Frame Generation.

Logo o input lag será o mesmo do jogo a correr a 85fps. 53ms de input lag para a o cyberpunk a correr a 85fps, parece-me o normal.

Mas como já se referiu, para jogos competitivos, ninguém usa o DLSS 2 e ninguém vai usar este novo.

Isto é muito bom é para os jogos AAA Single Player. No meu caso, é o tipo de jogo que gosto. Não jogo absolutamente nada de multiplayer :D

Mas neste momento não é isso que me preocupa, mas sim os preços que se está a praticar. Se há coisa que não gosto, é de me sentir roubado.
 
Mas não se pode negar que os jogos mp sao de longe os mais jogados. Ou pelo menos, são uma grande fatia de PC gaming.

Mas como já se referiu, para jogos competitivos, ninguém usa o DLSS 2 e ninguém vai usar o novo.
São eles mesmos a a tentar vender o peixe dessa maneira:

Naturalmente, vao sempre haver vozes que estao mais dentro da realidade. E Inputlag não me incomoda em AAA se não for horrível, não sou nada picuinhas.
Para 4k, pode ser o seu uso. Ou até para 1440p.
Ou para quem joga warzone 4k ultra com rtx on. :007:
 
Mas não se pode negar que os jogos mp sao de longe os mais jogados. Ou pelo menos, são uma grande fatia de PC gaming

Isso é o mercado entusiasta, e é uma fatia pequena, é pessoal com monitores TN 1080p 240hz a correr jogos a 4:3 a resoluções baixas, o resto quer é uma imagem porreira e suave, quer lá saber se tem X ou Y de input lag.
 
Há muitos vídeos e artigos a falar do assunto. Muitos já postados na thread. Há um interesse imenso no tópico. Basta pesquisar em foruns de tech e no youtube.
Acho que estas a subestimar quem é o "gamer comum", o que quer que isso seja.
O gamer comum é quem joga a 4k ultra rtx? Fiquei a perceber que estás a dizer isso. Isso é que está mesmo muito longe da realidade.
 
Este forum representa o mercado entusiasta, o jogador comum vê um ou outro Linus Tech Tips e pouco mais, compra um monitor de 144hz e usa-o a 60hz, compra uma 10900k para jogar Counter-Strike, gasta 300€ numa cadeira de gaming e estranha porquê continuar com dores de costas ou compra material com RGB porque gosta das luzinhas a piscar.

Mesmo até no entusiasta.. a quantidade de pessoal no reddit que compra monitores / televisores novos e queixam-se que HDR não é equivalente a um imagem com imenso brilho e saturação e compram uma TV de 1200€ e depois estranham porque é que a 2080 não suporta mais do que 4K 60hz..
 
Última edição:
Mas aqui ninguém estava a falar no que o "forum representa", que até é um termo muito vago, o que é realmente o mercado entusiasta?
Quem joga a 1440p240hz? Ou quem joga a 4k144? É tudo muito relativo. Tu nao podes possivelmente saber a resposta, porque cada um tem preferências diferentes.

Falou-se "jogador comum". E o jogador comum como bem dizes, joga 1080p. E com uma 1060, segundo a steam.
 
Há muitos vídeos e artigos a falar do assunto. Muitos já postados na thread. Há um interesse imenso no tópico. Basta pesquisar em foruns de tech e no youtube.
Acho que estas a subestimar quem é o "gamer comum", o que quer que isso seja.
O gamer comum é quem joga a 4k ultra rtx? Fiquei a perceber que estás a dizer isso. Isso é que está mesmo muito longe da realidade.
O gamer comum não nota o input lag de estar a jogar com dlls 3.0 2.0 ou em rasterização pura. Se um gajo fizer uma análise "básica" às gráficas que existem em maior quantidade no steam survey, não pode mesmo assumir que a grande maioria dos gamers tem a mesma sensibilidade que tu ao input lag.

independentemente da maioria dos jogos jogados serem MP, uma grande maioria joga em modo "batata".

Não digo que o input lag não seja importante, porque é. Mas para o gamer comum com a sua 1060, 2060, está-se a marimbar (e nem sabe)

Acho muito mais importante o dlss permitir o acesso a uma maior fatia de jogadores a uma experiência melhor de jogo (mais frames, mais qualidade de imagem) do que propriamente o input lag pois como já aqui falado, neste momento, quem realmente valoriza não usa dlss.

Foi apenas neste ponto onde digo que, ainda que muito válida, a tua opinião não é de todo igual à do average joe.
 
Acho muito mais importante o dlss permitir o acesso a uma maior fatia de jogadores a uma experiência melhor de jogo (mais frames, mais qualidade de imagem) do que propriamente o input lag pois como já aqui falado, neste momento, quem realmente valoriza não usa dlss.
É pena que ampere e turing fiquem sem acesso ao 3.0. Essa fatia ficava ainda maior.

Foi apenas neste ponto onde digo que, ainda que muito válida, a tua opinião não é de todo igual à do average joe.

A realidade é que eu tenho noção que nao estou na maioria, sou daqueles que consegue sentir o inputlag de gsync. :wvsore: E lá está, isso só me incomoda em mp, a jogar AAA não tenho problemas em jogar com gsync.
Mas também temos que ter noção que 1440p/4k a altas refresh rates não é a norma. Até diria que é um nicho neste momento.

De qualquer maneira, eu nunca disse que dlss era horrível, mas há que ter expectivas um bocado mais realistas.
E depois tambem ficar um bocado desconfiado do que eles mostraram, muitos asteriscos ali, e temos que esperar por reviews independentes antes de lançar foguetes.
 
Verdade, por isso é que digo que o dlss é o futuro. Mas enquanto não houver uma gráfica de 200€ que permita o acesso à tecnologia, mantém-se apenas no "futuro".
Quando as 1060 se transformarem nas 2060 no futuro, e já as 1060 forem gráficas de museu, será uma coisa.

Nisso tens toda a razão. Esta geração até ver, mantenho a minha opinião que apenas a 4090 é uma evolução decente (dentro do mesmo price range) Mas isto porque eu para já apenas me preocupo com a vertente profissional da coisa. O resto, até ver, parece tudo muito estranho. E a "4070" está a levar um backlash imenso :D
 
Não jogo de rato e teclado ha uns bons anos, corria a maioria dos jogos com ReShade e fui dos primeiros a correr jogos em UltraWide, e quero lá saber do input lag, para mim suavidade é correr acima de 80 frames por segundo com VRR, digo mais, até jogo com o audio via BT do televisor.

Agora só quero que o jogo esteja suave e com um bom detalhe de imagem, estar atrás da latência não me interessa nada, queria uma 4070 para correr um Ghost Recon Breakpoint a 4K com tudo no máximo, sim, mas só porque o jogo não suporta DLSS, verdade seja dita, com o UE5 a suportar DLSS 3.0 (DLSS 2.4 para os restantes GPU) acho que a 3070 até que se vai aguentar mais uns bons anos.. isto é, também não dá para correr o ultimo Assassins Creed porque só suporta a miseria do FSR 1.0.
 
Verdade, por isso é que digo que o dlss é o futuro. Mas enquanto não houver uma gráfica de 200€ que permita o acesso à tecnologia, mantém-se apenas no "futuro".
Quando as 1060 se transformarem nas 2060 no futuro, e já as 1060 forem gráficas de museu, será uma coisa.

Nisso tens toda a razão. Esta geração até ver, mantenho a minha opinião que apenas a 4090 é uma evolução decente (dentro do mesmo price range) Mas isto porque eu para já apenas me preocupo com a vertente profissional da coisa. O resto, até ver, parece tudo muito estranho. E a "4070" está a levar um backlash imenso :D

Sim, na minha opinião a 4090 é uma boa compra, para quem tiver dinheiro para isso.
Mas o resto dos sku's não me deixam nada confiantes, então a 4080 12gb, e o preço. :wvsore:
Ainda vamos ver uma 4060 com performance de raster igual a uma 3070, mas com rtx e dlss mais forte. Estou a ver que esta gen vai ser o repeat de turing, mas pior ainda.
Eu pessoalmente não gosto desta direção que a nvidia está a tomar. Não me identifico nada com isso. Acho isto tudo muito anti consumidor.

Não jogo de rato e teclado ha uns bons anos, corria a maioria dos jogos com ReShade e fui dos primeiros a correr jogos em UltraWide, e quero lá saber do input lag, para mim suavidade é correr acima de 80 frames por segundo com VRR, digo mais, até jogo com o audio via BT do televisor.

Agora só quero que o jogo esteja suave e com um bom detalhe de imagem, estar atrás da latência não me interessa nada, queria uma 4070 para correr um Ghost Recon Breakpoint a 4K com tudo no máximo, sim, mas só porque o jogo não suporta DLSS, verdade seja dita, com o UE5 a suportar DLSS 3.0 (DLSS 2.4 para os restantes GPU) acho que a 3070 até que se vai aguentar mais uns bons anos.. isto é, também não dá para correr o ultimo Assassins Creed porque só suporta a miseria do FSR 1.0.
Devias-te importar um bocado pelo menos, com muito inputlag a experiencia nao vai ser ideal, mas tambem estamos a falar de +100ms para sentires duma maneira substancial.
Mas se funciona para ti também não quero a estar a impor nada.
Como disse atrás, é tudo muito relativo, cada um tem preferências e exigencias diferentes.
 
É pena que ampere e turing fiquem sem acesso ao 3.0. Essa fatia ficava ainda maior.



A realidade é que eu tenho noção que nao estou na maioria, sou daqueles que consegue sentir o inputlag de gsync. :wvsore: E lá está, isso só me incomoda em mp, a jogar AAA não tenho problemas em jogar com gsync.
Mas também temos que ter noção que 1440p/4k a altas refresh rates não é a norma. Até diria que é um nicho neste momento.

De qualquer maneira, eu nunca disse que dlss era horrível, mas há que ter expectivas um bocado mais realistas.
E depois tambem ficar um bocado desconfiado do que eles mostraram, muitos asteriscos ali, e temos que esperar por reviews independentes antes de lançar foguetes.

O input lag do gsync é mínimo. Normalmente 0.3ms, em alguns monitores 1ms. Mas ya, quando tens end to end latency de 10-15ms, 1-2ms já se nota qualquer coisa.

Gsync faz menos diferença quanto maior for o frame rate/refresh. A 60hz o tearing é literalmente horrível, injogável. A 144hz ainda se nota tearing e imagem não muito suave sem gsync/vsync. A 240hz mal notas se tens gsync ligado ou não. Em certos jogos nem vês tearing sem olhar muito meticulosamente ao pormenor.

Diria que com 1000hz gsync torna-se totalmente irrelevante, podes estar a 60fps que nem notas a diferença entre gsync on ou off
 
Por exemplo, eu uso o rivatuner para limitar frames no apex. E também uso overlay da steam... E o OSD do afterburner. :D
Uma coisa ali, outra acolá.
Com 280hz não vejo tearing, se visse, considerava gsync 100%. Mas é menos uma coisa. E desconfio que é mesmo +1ms em monitores sem modulo de gsync.
Agora, ando a jogar doom no meu monitor 1440p e nesse o gsync está sempre ligado.
Depende do uso que quero dar aos monitores.
 
Mas também ficamos a saber que a Nvidia estar a usar o processo de fabrico N4 da TSMC, ao contrario da Amd que vai usar o N5 + N6.

Segundo a TSMC, o N4 tem um performance boost de 11% em relação ao N5 e é 22% mais eficiente energeticamente. Também tens mais 6% de densidade de transistors.

PS: @nullus no outro dia em conversa disseste que a Amd tem prioridade na TSMC. Não sei até que ponto... A Nvidia é que conseguiu apanhar o N4.

Não há TSMC 4nm, aquilo é a mesma litografia de 5nm mas é um processo custom da Nvidia. Á semelhança daquilo que fizeram com a Samsung. Os 4nm são apenas marketing.
 
Por exemplo, eu uso o rivatuner para limitar frames no apex. E também uso overlay da steam... E o OSD do afterburner. :D
Uma coisa ali, outra acolá.
Com 280hz não vejo tearing, se visse, considerava gsync 100%. Mas é menos uma coisa. E desconfio que é mesmo +1ms em monitores sem modulo de gsync.
Agora, ando a jogar doom no meu monitor 1440p e nesse o gsync está sempre ligado.
Depende do uso que quero dar aos monitores.

Limitar frames a 99% do que monitor suporta, ligar o vsync ao nivel de drivers e acionar o modo de latencia baixa não é ser-se entusiásta, está ao nível de saber ligar um computador :D

Ah, e por o GPU em rendimento máximo, depois tens pessoal com uma 3080 a estranhar porque é que anda com quebras no UE4 e vai-se a ver e está com o GPU em modo economico :D
 
Não saberia, eu nunca toco no vsync.
Nem uso o low latency.
E limito frames no apex por limitacao da engine.

E já agora, o que é ser entusiasta para ti?
Só tu é que estas a usar essa palavra no tópico, podias elucidar quem esta a ler.
 
Back
Topo