Gráfica AMD RDNA2 (RX 6000 series)

Esta é uma afirmação que por si só se nega...

Seria como teres um quadro e dizeres "e tal o artista estava confuso, mas com este retoque é que é perfeito, melhor que o original"

Da mesma forma que um JPEG nunca vai ser melhor e mais perfeito que a mesma imagem sem compressão, pode ser mais rápido, menor, mas mesmo que tentes repor os píxeis em falta por um algoritmo fantástico nunca será melhor, no máximo igual.

And yet....
https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis

Tal como eles dizem, e bem, a imagem final pode acabar por ser melhor que a nativa porque a nativa utiliza tecnicas de AA que não são usadas na versão DLSS que acabam por se traduzir em resultados piores que a versão DLSS.
 
Vejo gente já a ditar a morte do RDNA2 e parecem que estão torcendo que isso ocorra.

Se a RDNA2 falhar, a AMD acaba com o RTG e ficamos com a nVidia com monopólio, a não ser que a Intel faça mágica com as Xe.

RT e DLSS é bonito, mas ou vem open source ou vai morrer, tal como morreu Physis, Glides da vida e outras cenas proprietárias.

As empresas vão desenvolver jogos no minimo denominador comum, não vão fazer algo que depois só quem tem Ampere e Turing consegue jogar.

Claro que não estou a contar com uma concorrente da 3090, mas algo que encare a 3080 para baixo (e que não consuma mais que 300w).

E sinceramente, o facto do preço da 3070 e 3080 não subir, serem os monstros que são e os TDPs maiores para min é indicativo que a concorrência vai vir forte.
 
Última edição:
Esta é uma afirmação que por si só se nega...

Seria como teres um quadro e dizeres "e tal o artista estava confuso, mas com este retoque é que é perfeito, melhor que o original"

Da mesma forma que um JPEG nunca vai ser melhor e mais perfeito que a mesma imagem sem compressão, pode ser mais rápido, menor, mas mesmo que tentes repor os píxeis em falta por um algoritmo fantástico nunca será melhor, no máximo igual.

É possível e tem uma lógica muito simples e que comprovas rapidamente com os videos do DF no Death Stranding e/ou no Control.

É que o DLSS é treinado com o jogo a correr a 16K. Logo, o DLSS tem conhecimento de mais detalhe, que o jogo a correr nativamente a 4K.
 
And yet....
https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis

Tal como eles dizem, e bem, a imagem final pode acabar por ser melhor que a nativa porque a nativa utiliza tecnicas de AA que não são usadas na versão DLSS que acabam por se traduzir em resultados piores que a versão DLSS.

O que eles dizem é:

Other than that small detail, DLSS 2.0 at any normal screen distance on any reasonable resolution looks almost as good as the real thing.

E o small detail são artefactos e over-sharpening...

The second effect is edge treatment, where DLSS can exhibit some minor flaws, specifically on high contrast edges. Also notable is that edges can also reveal a small degree of over-sharpening, creating a halo effect that again is most noticeable on high contrast areas.

@Ansatsu
Podem fazer magia, mas duvido que a imagem com upscale possa ser melhor que a imagem na resolução nativa.
 
Vejo gente já a ditar a morte do RDNA2 e parecem que estão torcendo que isso ocorra.

Se a RDNA2 falhar, a AMD acaba com o RTG e ficamos com a nVidia com monopólio, a não ser que a Intel faça mágica com as Xe.

Ninguém está a torcer para que o RDNA2 morra. Simplesmente estamos num forum de tecnologia a discutir factos. A Amd já esteve em situações piores do que esta e não morreu, não vai ser agora que vai morrer.

RT e DLSS é bonito, mas ou vem open source ou vai morrer, tal como morreu Physis, Glides da vida e outras cenas proprietárias.

O Ray Tracing pode ser usado por qualquer um, e até as consolas vão passar a usar, logo nunca mais vai morrer. Vai é passar a ser a norma daqui para a frente.

O DLSS nunca irá ser open source e também não vai morrer a não ser se a Nvidia se virar para uma tecnologia superior ao DLSS no futuro.
O DLSS 2.0 é fácil de ser implementado e trás performance de borla que é o que os estudios querem dar aos jogadores. Cada vez mais jogos suportam a tecnologia e não o oposto.

As empresas vão desenvolver jogos no minimo denominador comum, não vão fazer algo que depois só quem tem Ampere e Turing consegue jogar.

O dominador comum são as consolas, e as novas suportam Ray Tracing. Quanto ao DLSS não é uma questão de dominador comum, é uma questão de implementar no jogo e está feito. Na versão 1.0 ainda dava bastante trabalho, mas na versão 2.0 é muito mais simples.

Quando até tens um jogo como o Fortnite que é dos jogos que tem mais jogadores activos actualmente, a informar que vai lançar update para suportar RT e DLSS, não há muito mais a dizer.

O Death Stranding foi o primeiro jogo para PC a sair no motor Decima Engine, e logo à primeira sai com DLSS 2.0. Só demonstra o quão facil e simples é a implementação.

E sinceramente, o facto do preço da 3070 e 3080 não subir, serem os monstros que são e os TDPs maiores para min é indicativo que a concorrência vai vir forte.

Pode ser, mas também podem estar a olhar para as consolas como os principais concorrentes. A verdade é que saiu a 5700 e a 5700 XT e a Nvidia mesmo assim conseguiu subir a sua quota de mercado. Não me parece que estejam com muito receio da concorrencia da AMD, mas já nas consolas com os baixos preços das mesmas, já podem ter algum receio que haja PC Gamers a migrarem para as consolas, o que no final significaria menos Gpu's vendidos.

@Ansatsu
Podem fazer magia, mas duvido que a imagem com upscale possa ser melhor que a imagem na resolução nativa.

Em certas coisas é, como por exemplo nos cabelos ou pelos. O DLSS treinou o jogo em 16K que é muito superior a 4k.

Logo quando está a renderizar o jogo a 1080p, a AI ao passar para 4K vai lembrar-se que já viu aquela imagem em 16k. E ao já ter visto, é-lhe muito mais fácil passar para 4K e em diversas situações colocar mais detalhe do que a própria imagem 4k nativa.
 
Última edição:
O que eles dizem é:

Other than that small detail, DLSS 2.0 at any normal screen distance on any reasonable resolution looks almost as good as the real thing.

E o small detail são artefactos e over-sharpening...

The second effect is edge treatment, where DLSS can exhibit some minor flaws, specifically on high contrast edges. Also notable is that edges can also reveal a small degree of over-sharpening, creating a halo effect that again is most noticeable on high contrast areas.

@Ansatsu
Podem fazer magia, mas duvido que a imagem com upscale possa ser melhor que a imagem na resolução nativa.

Mas também dizem:

Ultimately, DLSS 2.0 brings much better image quality to Control than it had previously, and there's no further hit to performance in doing so. The quality of the image reconstruction is so good, you'll have a hard time noticing whether it is on or off - and aspects of the image can look even better than native rendering, simply because DLSS doesn't feature some of the deficiencies found in some temporal anti-aliasing solutions.

E se bem percebi vem aí o dlss 2.1, com algumas melhorias. Com mais treino e mais experiência talvez até consigam controlar melhor a parte menos boa dos artefactos e das bordas. No geral é um técnica muito bem vinda e gosta muito que a AMD tivesse algo semelhante muito em breve para não ficar completamente para trás.
 
Ninguém está a torcer para que o RDNA2 morra. Simplesmente estamos num forum de tecnologia a discutir factos. A Amd já esteve em situações piores do que esta e não morreu, não vai ser agora que vai morrer.

Se o RDNA2 corre mal, a AMD não morre, muito longe disso, nem acredito que acabe com o RTG, pode é acabar com a produção de GPUs dedicados para desktop e só fazer APU para portáteis e consolas. Aí depois, tu e toda a gente vão começar a pagar 800 euros por gráficas x70. Só a Intel poderia equilibrar a coisa, mas não me parece que consigam bater-se com a Nvidia nos próximos 10 anos.

A AMD está a dominar nos CPU, com as arquiteturas Zen, e vai continuar a dominar. As margens dos CPUs são muitíssimo melhores do que as dos GPU. Por isso, para eles darem um "biqueiro" no mercado de GPUs dedicados, é um instantinho. Cuidado com o que desejas...
 
Se o RDNA2 corre mal, a AMD não morre, muito longe disso, nem acredito que acabe com o RTG, pode é acabar com a produção de GPUs dedicados para desktop e só fazer APU para portáteis e consolas. Aí depois, tu e toda a gente vão começar a pagar 800 euros por gráficas x70. Só a Intel poderia equilibrar a coisa, mas não me parece que consigam bater-se com a Nvidia nos próximos 10 anos.

A AMD está a dominar nos CPU, com as arquiteturas Zen, e vai continuar a dominar. As margens dos CPUs são muitíssimo melhores do que as dos GPU. Por isso, para eles darem um "biqueiro" no mercado de GPUs dedicados, é um instantinho. Cuidado com o que desejas...

Sim e não. o RDNA estará nas consolas, e verificando o steam survey podemos ver que a RTG não faz frente a ninguém. Trabalho num SI e em 10 sistemas uso uma gráfica AMD. Já cheguei a montar 1660 Ti mais caras do que 5600 XT, e mesmo assim os clientes não querem AMD.
 
Apenas não afirmo "impossíveis" dois meses antes de se ver alguma coisa concreta. ;)

Mas a questão é que já existem coisas concretas, as consolas, e já houve uma grande mostra da arquitectura das novas graficas.

A alternativa há-de existir tanto a nivel de raytracing e dlss, até porque a própria Microsoft tem investido nesse sentido nas ferramentas que tem incluido no DX12 ultimate. E não o está a fazer por causa da Nvidia, é mesmo por causa dos produtos que interessam à microsoft, a sua consola e o pc, estão no mesmo barco que a AMD e tem infraestrutura para treinar redes neuronais necessária à implementação desse tipo de soluções.
A sony também terá as suas ferramentas, e é pioneira no upscaling, já o fazia antes do mercado achar que era "fixe".

Existe upscaling há decadas, a Sony não é "pioneira" do upscaling. Tu quando jogas a uma resolução que não a do teu monitor a tua grafica está a fazer upscaling.
Upscaling qualquer um faz, upscaling bom é muito raro, e upscaling praticamente perfeito o DLSS do que já vi é o unico,

Não é só uma questão de crirar o software e haver Api e está feito, precisas de hardware para o correr. O DLSS é altamente compute intensive, a correr nos shaders não vais ter grande performance.
E a não ser que a AMd altere porr completo a arquitectura deles em relação ás consolas, eles não vao ter hardware para isso..



É ridiculo acharem que a AMD não vai competir em nenhum segmento. A 5700xt não competiu com nada? Os engenheiros da Radeon deviam ir todos trabalhar para outra coisa qualquer segundo alguns.
Os mais recentes benchmarks da concorrência mostram um uplift de rasterização entre 30-35% acima da 2080 ti. Isto está dentro do que seria normal e expectavel por parte da AMD, deixem o hype de lado e olhem os factos.

A minha duvida não está na rasterização, acredito que faça match ou até um pouco superior.
Só que nos estamos num mundo que não se limita á rasterização apenas, estamos num mundo em que existe raytracing e DLSS.


Esta é uma afirmação que por si só se nega...

Seria como teres um quadro e dizeres "e tal o artista estava confuso, mas com este retoque é que é perfeito, melhor que o original"

Da mesma forma que um JPEG nunca vai ser melhor e mais perfeito que a mesma imagem sem compressão, pode ser mais rápido, menor, mas mesmo que tentes repor os píxeis em falta por um algoritmo fantástico nunca será melhor, no máximo igual.

Se soubesses como funciona o DLSS ias perceber o porque de isso ser possivel.

Não é uma questão de estar a inventar algo que é melhor que o "original" .
Tu podes estár a fazer render a 4K nativo mas isso não é o "verdadeiro original" ; o verdadeiro original é em "resolução inifinita".
Se tu por exemplo fizesses render a 16K e depois downsample para 4K irias ter melhor detalhes do que fazendo render a 4K; ias ter menos efeito de aliasing, etc.
A imagem resultante de DLSS vai estar mais proxima da imagem downscaled de 16K

Um uscale normal pega simplesmente da informaçao dos pixeis existentes na imagem e tenta fazer uma reconstrução a uma resolução maior; faz interploaçoes lineares entre pixeis e depois passa uns filtros de contraste para uniformizar as arestas.

O DLSS pega na imagem como um todo, e pega no que sabe do aspecto de uma imagem em 16K; faz uma análise do que são objectos , continuidades de linhas, faz uma análise temporal da evolução dos varios objectos que ele identificou, e faz ai então um upscale "contextual" da imagem, sempre tendo em conta o que seria o esperado de uma imagem a 16K .
 
Se o RDNA2 corre mal, a AMD não morre, muito longe disso, nem acredito que acabe com o RTG, pode é acabar com a produção de GPUs dedicados para desktop e só fazer APU para portáteis e consolas. Aí depois, tu e toda a gente vão começar a pagar 800 euros por gráficas x70. Só a Intel poderia equilibrar a coisa, mas não me parece que consigam bater-se com a Nvidia nos próximos 10 anos.

O RDNA2 vai vender bem aos olhos da Amd. Se até as Vegas 56 e 64 venderam, não vai ser estas que vão deixar de vender.

Depois, mesmo que isso acontecesse, a Nvidia continuaria a competir consigo mesma, pois necessita de convencer o pessoal a trocar de geração de gráfica.

Imagina que a Amd morria agora, e a Nvidia então colocava a 3070 a 1000€, a 3080 a 1400€ e a 3090 a 2500€.

Sabes o que ia acontecer? Ninguém migrava da Pascal e Turing para o Ampere.
Com um pouco de sorte, ainda migravam para as consolas.

A Nvidia está constantemente em competição com ela própria, com a sua anterior geração de gráficas.

A AMD está a dominar nos CPU, com as arquiteturas Zen, e vai continuar a dominar. As margens dos CPUs são muitíssimo melhores do que as dos GPU. Por isso, para eles darem um "biqueiro" no mercado de GPUs dedicados, é um instantinho. Cuidado com o que desejas...

Primeiro, não desejo nada disso, nem tão pouco vai acontecer.

Segundo, achas mesmo que a Amd não tem receio que a Intel de um momento para o outro acerte no processo de fabrico? É que basta isso para voltarem a entrar em cena.

Além disso, se deixassem os Gpus, os Apus deles não iam aproveitar o desenvolvimento do RTG e isso significaria APUs com um gpu fraco. O que colocava em causa os Apus que vendem para as consolas.
Quem agradecia era a Nvidia, que muito provavelmente passaria a fornecer os Gpus para as consolas.
 
Acredito que o sistema gráfico implementado na PS5 não seja o melhor que a AMD tem para o PC...

Mas não contes ver jogos com aquela qualidade gráfica tão cedo.

Aquilo é uma tech demo, muito pequena e num ambiente controlado, para espremer ao máximo. E mesmo assim correu a 1440p com resolução dinâmica a apenas 30fps, e no PC ninguém quer jogar dessa forma.

Basta ver que a cada inicio de geração a Epic lança uma ou mais Tech Demo's do Unreal Engine e primeiro que se chegue a essa qualidade, vai lá vai...
 
A única coisa que quero referir é que existe uma alternativa ao dlss, estar a dizer que só alguns suportam o fidelityfx é exactamente o mesmo de só alguns suportarem dlss.
 
Back
Topo