Gráfica NVIDIA Turing (GTX 1600 series, RTX 2000 (Super) series, Quadro RTX)

Não entendo qual o milagre no death stranding, não me parece ser possível o que se anda a dizer.

O milagre é que não só reconstroi a imagem, como ainda vai corrigir as imperfeições. Por exemplo, nos cabelos é normal mesmo a 4k nativos, ter falhas ou o efeito de escada. Com o DLSS o cabelo fica bem mais perfeito. Esse foi um dos pontos que o DF falou.

O outro ponto, é que o DLSS ao reconstruir a imagem, cria uma limpa sem qualquer Aliasing. A imagem nativa vai ter aliasing, mesmo a 4K, e se aplicares um filtro tipo TAA para limpar o Aliasing, vai adicionar Blur e/ou alguns artefactos.

Na conclusão eles foram peremptórios, mesmo que não precisemos da performance extra, aconselham a activar o DLSS porque a imagem fica efetivamente melhor.

PS: Estou curioso é para saber se o milagre que conseguiram no Death Stranding, vai ser possível nos jogos daqui para a frente ou se foi caso único. O próximo penso que é o Cyberpunk, para se tirar as duvidas.
 
A questão é bem simples para mim. Nos jogos que suportem é adicionar aos gráficos da análise os valores com e sem DLSS, são mais algumas barras com os 3 modos de qualidade. A comparação da qualidade de imagem é altamente subjetiva e nem todos gostam do mesmo. Daria ao cliente que possa não apreciar os efeitos ou os artefactos que o DLSS ainda vai causando a possibilidade de comparar sem recurso à feature. Assim tem um visão de todos os pontos de vista.
O DLSS ainda está a amadurecer, tem um potencial tremendo e é o caminho certo, mas enquanto ainda não é uma feature omnipresente tem que ser avaliado "side-by-side". É mais trabalho para o reviewer e mais informação para o cliente processar, mas por agora é melhor assim.
 
Não estou é convencido que com DLSS a qualidade de imagem seja igual. Não faz qualquer sentido.

A ideia é enganar o olho o suficiente para a maioria das pessoas. Não é efectivamente igual. Mas só tem que ser suficiente para a maioria não conseguir ver diferenças facilmente.

Eu sei (ou pelo menos acho que sei) qual a ideia por trás da tecnologia. Interpolar uma resolução com base numa inferior em que a AI preenche os "buracos".
Ora, melhor ou igual nunca poderá ser em termos de qualidade, quanto muito não se nota a diferença.

Não entendo qual o milagre no death stranding, não me parece ser possível o que se anda a dizer.

Quanto precebes como funciona uma rede neuronal, AI, e o funcionamento por tras de DLSS ;percebes o porque de ser possivel.
Não é uma questão meramente de enganar o olho, chega a ter melhor qualidade que o nativo.

Imagina a seguinte situação:
Tiras uma foto em 4K e fazes downscale dela para 1080p.
E a seguir fazes upscale dela de 1080p para 4k, usando "software normal"; a imagem 4K upscaled vai ter pior qualidade que a 4K nativo.
Mas se tu fosses pegar nessa imagem upscaled 4K e a editasses pixel a pixel, a tua edição da imagem a 4K potencialmente ficaria tão boa ou melhor que a imagem 4K . Porque tu, como pessoa, sabes o detalhe da imagem real ( resolução infinita), como ela é na realidade, e conseguirias corrigir erros/artefactos que estariam na imagem de 4K.

O DLSS funciona de forma semelhante. Ele consegue pegar numa imagem de 1440p e metê-la com melhor qualidade que 4K nativo porque a rede neuronal foi teinada com imagens de 16K. A rede neuronal aprendeu a olhar para uma imagem em 1440p/1080p e a mesma imagem em 16K ( imagem "real") e a perceber os defeitos da imagem em relação aos 16K, e treinada a corrigir esses erros para a tornar o mais parecido possivel com a imagem de 16K. É treinada a perceber a continuidade de linhas de objectos, treinada a perceber onde há falhas e como as corrigir, etc ..

Em muitas situaçoes o DLSS consegue melhor qualidade nativa que 4K porque na realidade o DLSS tem informação de como seria uma imagem a 16K e utiliza isso para corrigir os defeitos da imagem, para a tornar mais real.
Uma imagem nativa 4K tem simplesmente a informação de 4K, e um upscale normal de 1440p tem apenas a informação de 1440p e tem de "inventar" a 100% o resto. O DLSS não, o DLSS tem informação de como é suposto ser uma imagem a 16K.

Para alem disso o DLSS tem informação temporal de cada pixel, localização e vector de velocidade. o que ajuda o DLSS a manter tracking das features, para complementar a imagem de frame para frame. Não de forma directa como o TAA faz ( que acaba por gerar sobrepossição de imagem), mas a alimentar a rede neuronal para esta estimar a pozição daquela freature/objecto, e não simplesmente uma interpolação bruta de pixeis.

Não deixa de ser algo surprendente e inacreditavel, quase parece magia,
 
Última edição:
Relembro que não é só death stranding com dlss 2.0

Há também control e wolfenstein young blood. No control gosto mais de ter dlss pois o TAA é um bocado horrível com muito ghosting. O death stranding aonda não tive oportunidade de testar pois estou em casa dos meus pais a recuperar de uma operação e cá tenho uma 1080ti.

Entretanto os seguintes jogos também vão ter dlss:

Cyberpunk 2077

Atomic Heart

Watch Dogs: Legion

Justice

JX3

Serious Sam 4: Planet Badass

Vampire: The Masquerade – Bloodlines 2

Amid Evil

Stormdivers

The Forge Arena

We Happy Few

Kinetik

Outpost Zero

Overkill’s The Walking Dead

PlayerUnknown’s Battlegrounds

Remnant from the Ashes

Scum

Darksiders III

Dauntless

Fear the Wolves

Fractured Lands

Hellblade: Senua’s Sacrifice

Hitman 2

Islands of Nyne: Battle Royale

ARK: Survival Evolved
 
É importante que tecnologias como esta se desenvolvam, só espero que se venham a aplicar nativamente a todos os gráficos e não apenas às dos jogos escolhidos. Isso será uma verdadeira melhoria. Vou torcer para que nvidia o consiga e a amd acorde :).
 
No control gosto mais de ter dlss pois o TAA é um bocado horrível com muito ghosting.

Tocaste numa coisa muito importante.
O TAA causa problemas com artefactos temporais, o que é bastante mau.
Se o DLSS 2.0 resolve isto, é uma vantagem enorme.

Infelizmente não tenho um único jogo com DLSS 2.0 para comparar.
 
Já houveram titular patrocinados por uma ou outra empresa, que tinha tech das duas.

O Death Stranding é patrocinado pela nVidia e tem o DLSS da nVidia, mas também tem o FidelityFX Cas da AMD.

O problema é que o DLSS só é adoptado quando a nVidia paga. E isso limita em muito a adopção da tecnologia.
O ideal seria que o DLSS fosse agnóstico, bastando ligar nas opções do painel de controlo da nVidia.
 
O Death Stranding é patrocinado pela nVidia e tem o DLSS da nVidia, mas também tem o FidelityFX Cas da AMD.

É o primeiro jogo que vem com o FidelityFX Cas certo?

Sinceramente se eu fosse a AMD não queria que pusessem isso lado a lado com o DLSS. Vi no video do DF, e a qualidade é tão, mas tão pior que o DLSS que acaba por ser má publicidade para a AMD.

O que aquilo faz é reduzir a resolução interna e depois aplicar TAA e Sharpening. TAA e resolução mais baixa que a nativa, não funciona bem.
 
Quanto precebes como funciona uma rede neuronal, AI, e o funcionamento por tras de DLSS ;percebes o porque de ser possivel.
Não é uma questão meramente de enganar o olho, chega a ter melhor qualidade que o nativo.

Imagina a seguinte situação:
Tiras uma foto em 4K e fazes downscale dela para 1080p.
E a seguir fazes upscale dela de 1080p para 4k, usando "software normal"; a imagem 4K upscaled vai ter pior qualidade que a 4K nativo.
Mas se tu fosses pegar nessa imagem upscaled 4K e a editasses pixel a pixel, a tua edição da imagem a 4K potencialmente ficaria tão boa ou melhor que a imagem 4K . Porque tu, como pessoa, sabes o detalhe da imagem real ( resolução infinita), como ela é na realidade, e conseguirias corrigir erros/artefactos que estariam na imagem de 4K.

O DLSS funciona de forma semelhante. Ele consegue pegar numa imagem de 1440p e metê-la com melhor qualidade que 4K nativo porque a rede neuronal foi teinada com imagens de 16K. A rede neuronal aprendeu a olhar para uma imagem em 1440p/1080p e a mesma imagem em 16K ( imagem "real") e a perceber os defeitos da imagem em relação aos 16K, e treinada a corrigir esses erros para a tornar o mais parecido possivel com a imagem de 16K. É treinada a perceber a continuidade de linhas de objectos, treinada a perceber onde há falhas e como as corrigir, etc ..

Em muitas situaçoes o DLSS consegue melhor qualidade nativa que 4K porque na realidade o DLSS tem informação de como seria uma imagem a 16K e utiliza isso para corrigir os defeitos da imagem, para a tornar mais real.
Uma imagem nativa 4K tem simplesmente a informação de 4K, e um upscale normal de 1440p tem apenas a informação de 1440p e tem de "inventar" a 100% o resto. O DLSS não, o DLSS tem informação de como é suposto ser uma imagem a 16K.

Para alem disso o DLSS tem informação temporal de cada pixel, localização e vector de velocidade. o que ajuda o DLSS a manter tracking das features, para complementar a imagem de frame para frame. Não de forma directa como o TAA faz ( que acaba por gerar sobrepossição de imagem), mas a alimentar a rede neuronal para esta estimar a pozição daquela freature/objecto, e não simplesmente uma interpolação bruta de pixeis.

Não deixa de ser algo surprendente e inacreditavel, quase parece magia,


Muitíssimo bem explicado! Só acrescento, o DLSS parece chegar ao ponto que um ser humano é capaz de formar imagens por exemplo em sonhos ou quando imaginamos algo... temos memorias, sabemos que é um carro, uma bola etc... se temos uma imagem a 1080p já tem muita informação para qual trabalhar, agora é imaginar maior... na realidade nós humanos somos capazes de tal... as maquinas neste momentos estão muito superior em vários aspectos a nós humanos, o acesso à informação aprendida e à velocidade ao calculo de informação.

Na programação já começa a aparecer coisas muito interessantes, um chamado GPT 3, uma rede neural que sintetiza linhas de código, mas também assustadoras do que poderá ser capaz... se é que me entendem... :n1qshok:

Ora partilho este video: desculpem o offtopic mas só para os menos crentes perceberem a que ponto estamos atingir... neste caso no mais básico, a programação...
 
É o primeiro jogo que vem com o FidelityFX Cas certo?

Sinceramente se eu fosse a AMD não queria que pusessem isso lado a lado com o DLSS. Vi no video do DF, e a qualidade é tão, mas tão pior que o DLSS que acaba por ser má publicidade para a AMD.

O que aquilo faz é reduzir a resolução interna e depois aplicar TAA e Sharpening. TAA e resolução mais baixa que a nativa, não funciona bem.

O CAS é o sharpening da AMD e já o vi noutros jogos, dá para usar com gráficas da nVidia e funciona muito bem. Aliás, até é melhor do que o sharpening da nVidia no painel de controlo.
O upscaling é que nunca o vi noutro jogo. Andei a ver na net algumas análises a compara o FidelityFX e o DLSS2.0 e encontro reviews a falar mostrar que é mau, noutras a mostrar que é bom.
Como nunca experimentei nem o DLSS 2.0, nem o FidelityFX upscaler, não sei qual é a verdade.
 
acho que ainda não vi nenhuma review nenhuma a dizer bem do FidelityFX em termos de upscale..

Se calhar já fazia sentido era mudar isto para um topico á parte para o DLSS.. Está a 1 mes de não ser restrito ás Turing, faz snetido um topico para a tecnologia em si, acaba por ser um pouco independende da arquitectura das graficas ( a não ser a relação com os tensor cores) ..
 
Relembro que não é só death stranding com dlss 2.0

Há também control e wolfenstein young blood. No control gosto mais de ter dlss pois o TAA é um bocado horrível com muito ghosting. O death stranding aonda não tive oportunidade de testar pois estou em casa dos meus pais a recuperar de uma operação e cá tenho uma 1080ti.

Boas! Hoje finalmente tive oportunidade de jogar Death Stranding no meu PC principal e claramente DLSS tem bem melhor qualidade de imagem que nativo+TAA. A diferença é simplesmente enorme ao ponto de não acreditar que haja subjectividade suficiente para preferir o modo nativo.
 
Relembro que não é só death stranding com dlss 2.0

Há também control e wolfenstein young blood. No control gosto mais de ter dlss pois o TAA é um bocado horrível com muito ghosting. O death stranding aonda não tive oportunidade de testar pois estou em casa dos meus pais a recuperar de uma operação e cá tenho uma 1080ti.

Entretanto os seguintes jogos também vão ter dlss:

Cyberpunk 2077

Atomic Heart

Watch Dogs: Legion

Justice

JX3

Serious Sam 4: Planet Badass

Vampire: The Masquerade – Bloodlines 2

Amid Evil

Stormdivers

The Forge Arena

We Happy Few

Kinetik

Outpost Zero

Overkill’s The Walking Dead

PlayerUnknown’s Battlegrounds

Remnant from the Ashes

Scum

Darksiders III

Dauntless

Fear the Wolves

Fractured Lands

Hellblade: Senua’s Sacrifice

Hitman 2

Islands of Nyne: Battle Royale

ARK: Survival Evolved
Se adicionassem as franquias de Call of Duty e Flight Simulator, seria formidável.
 

Incrivel com o DLSS a fazer upscale de 1920*1080 para 3840*2160 (4k) consegue melhor resultados que o Chekerboard a fazer de 1920*2160 para 3840*2160 (4K); está a partir de uma imagem com metade dos pixeis..

E mesmo comparando com nativo, consegue ter melhor qualidade em algumas coisas..

Se adicionassem as franquias de Call of Duty e Flight Simulator, seria formidável.
Lá se haverá de chegar, se tudo correr bem.
 
E mesmo comparando com nativo, consegue ter melhor qualidade em algumas coisas..

O pessoal do DF cometeu um erro ao comparar com 4k+TAA, em vez de 4K realmente nativo.
O TAA destrói muita informação da imagem. Por isso, acaba por ser uma comparação injusta.
O DLSS em qualidade se calhar até ganhava na mesma, mas comparar com TAA é um erro grave de metodologia.
 
O pessoal do DF cometeu um erro ao comparar com 4k+TAA, em vez de 4K realmente nativo.
O TAA destrói muita informação da imagem. Por isso, acaba por ser uma comparação injusta.
O DLSS em qualidade se calhar até ganhava na mesma, mas comparar com TAA é um erro grave de metodologia.

Eles dizem no artigo que escreveram para o Eurogamer, que se não usarmos DLSS temos de usar TAA. Fxaa ou não usar nada, não é solução. Por isso é que fazem sempre as comparações com TAA.

Como se trata de um motor moderno, a implementação é boa e basicamente equivale a um SMAA T2x.
 
Usar TAA não é solução, tendo em conta a quantidade de blur e artefactos temporais que aquilo causa.
É sempre preferível usar nada do que TAA. Não há nada pior do que um AA temporal.
 
@Torak experimentei jogar nativo sem TAA quando estava a jogar na 1080ti e esquece. Demasiado cintilar em todo o lado com cabelo, musgo, árvores, pedras no chão, etc. TAA deixa a imagem muito mais estável temporalmente apesar do blur e ghosting que para mim é preferível ao cintilar constante em todo o lado.

FXAA é ainda mais inútil pois o cintilar continua lá mas com imagem com blur.
 
Back
Topo