Não estou é convencido que com DLSS a qualidade de imagem seja igual. Não faz qualquer sentido.
A ideia é enganar o olho o suficiente para a maioria das pessoas. Não é efectivamente igual. Mas só tem que ser suficiente para a maioria não conseguir ver diferenças facilmente.
Eu sei (ou pelo menos acho que sei) qual a ideia por trás da tecnologia. Interpolar uma resolução com base numa inferior em que a AI preenche os "buracos".
Ora, melhor ou igual nunca poderá ser em termos de qualidade, quanto muito não se nota a diferença.
Não entendo qual o milagre no death stranding, não me parece ser possível o que se anda a dizer.
Quanto precebes como funciona uma rede neuronal, AI, e o funcionamento por tras de DLSS ;percebes o porque de ser possivel.
Não é uma questão meramente de enganar o olho, chega a ter melhor qualidade que o nativo.
Imagina a seguinte situação:
Tiras uma foto em 4K e fazes downscale dela para 1080p.
E a seguir fazes upscale dela de 1080p para 4k, usando "software normal"; a imagem 4K upscaled vai ter pior qualidade que a 4K nativo.
Mas se tu fosses pegar nessa imagem upscaled 4K e a editasses pixel a pixel, a tua edição da imagem a 4K potencialmente ficaria tão boa ou melhor que a imagem 4K . Porque tu, como pessoa, sabes o detalhe da imagem real ( resolução infinita), como ela é na realidade, e conseguirias corrigir erros/artefactos que estariam na imagem de 4K.
O DLSS funciona de forma semelhante. Ele consegue pegar numa imagem de 1440p e metê-la com melhor qualidade que 4K nativo porque a rede neuronal foi teinada com imagens de 16K. A rede neuronal aprendeu a olhar para uma imagem em 1440p/1080p e a mesma imagem em 16K ( imagem "real") e a perceber os defeitos da imagem em relação aos 16K, e treinada a corrigir esses erros para a tornar o mais parecido possivel com a imagem de 16K. É treinada a perceber a continuidade de linhas de objectos, treinada a perceber onde há falhas e como as corrigir, etc ..
Em muitas situaçoes o DLSS consegue melhor qualidade nativa que 4K porque na realidade o DLSS tem informação de como seria uma imagem a 16K e utiliza isso para corrigir os defeitos da imagem, para a tornar mais real.
Uma imagem nativa 4K tem simplesmente a informação de 4K, e um upscale normal de 1440p tem apenas a informação de 1440p e tem de "inventar" a 100% o resto. O DLSS não, o DLSS tem informação de como é suposto ser uma imagem a 16K.
Para alem disso o DLSS tem informação temporal de cada pixel, localização e vector de velocidade. o que ajuda o DLSS a manter tracking das features, para complementar a imagem de frame para frame. Não de forma directa como o TAA faz ( que acaba por gerar sobrepossição de imagem), mas a alimentar a rede neuronal para esta estimar a pozição daquela freature/objecto, e não simplesmente uma interpolação bruta de pixeis.
Não deixa de ser algo surprendente e inacreditavel, quase parece magia,