Gráfica NVIDIA Turing (GTX 1600 series, RTX 2000 (Super) series, Quadro RTX)

A ser verdade, tem os mesmos Cuda Cores da GTX 1070, o que lhe deve dar uma performance na casa da 1070 Ti.
Não esquecer que a a RTX 2070 tem menos Cuda Cores que a Gtx 1080, e mesmo assim tem mais 15% de performance.

não esquecer que tem menos 2 GB de ram e menos ROPs e falta ver se virá GDDR6 de 14gbps ou nao... Preferia 8 GB GDDR6 de 10-12 do que 6 GB 14 gbps...

Deve ficar ao nivel da 1070, mas não chegando na 1070 ti, mas depende dos clocks.

Por fim o preço, não esquecer que apesar de ser uma xx60, usa um chip de 445 mm2 vs os 200 mm2 da GTX 1060...
 
não esquecer que tem menos 2 GB de ram e menos ROPs e falta ver se virá GDDR6 de 14gbps ou nao... Preferia 8 GB GDDR6 de 10-12 do que 6 GB 14 gbps...

Deve ficar ao nivel da 1070, mas não chegando na 1070 ti, mas depende dos clocks.

Por fim o preço, não esquecer que apesar de ser uma xx60, usa um chip de 445 mm2 vs os 200 mm2 da GTX 1060...
Sim, estou a fazer as contas a vir com gddr6, que é o que está noticiado no leak. Gddr5x já é de 10gbps.

Mas para já 6Gb chega. O único jogo até agora que me gastou mais que isso foi o FF XV. Ando a jogar o Witcher 3, aquilo tem uns gráficos do melhor que já vi, e até fico estúpido que nem 3Gb de vram gasta.

Pois, a die é grande, e já estou a ver que vai ter preço de Gtx 1070, na casa dos 400€.
 
performance idêntica à 1070-1070ti e com preço idêntico à 1070, então sendo assim qual a vantagem entre ir para uma 1070 ou uma futura 2060? melhor suporte nos drivers?
 
Última edição:
O DLSS vai sem importante mas mais para dar mais um boost na performance com RTX ligado nao?
Não sei se o dlss pode ser ligado ao mesmo tempo que o rtx. Secalhar até pode, mas ambos usam os tensor cores.

No caso da 2060, quando os jogos começarem a ser mais pesados, principalmente quando sair a próxima geração de consolas, o dlss pode ser uma grande solução da placa que a 1070 ti não tem. AA de borla com o dlss2 ou AA de borla e upscaling feito por AI com o dlss normal.

Por exemplo, tenho a 1070 ti e já sei que em 2020 quando os motores dos jogos forem atualizados para a próxima geração, vai começar a borrar-se toda. Um dlss nessa situação secalhar dava mais uns 2 ou 3 anos de vida à gráfica.
 
ou então simplesmente reduzes certos setings, até pq o que se tem demonstrado sobre o dlss é que reflete na qualidade de imagem o ganho em fps.
tal como o THESLB disse o DLSS parece ganhar mais importância quando em conjunto com o RTX, acho que isso é referido no vídeo da digital founders da atualização do BFV.
de qualquer maneira pagar mais 100 euros, quando comparado com a 1060, por uma simples tecnologia DLSS que até ver tem muito que se lhe diga, não faz muito sentido. não falem do aumento de performance, já que isso é o suposto acontecer a cada nova geração, digo eu...
 
ou então simplesmente reduzes certos setings, até pq o que se tem demonstrado sobre o dlss é que reflete na qualidade de imagem o ganho em fps.
tal como o THESLB disse o DLSS parece ganhar mais importância quando em conjunto com o RTX, acho que isso é referido no vídeo da digital founders da atualização do BFV.
de qualquer maneira pagar mais 100 euros, quando comparado com a 1060, por uma simples tecnologia DLSS que até ver tem muito que se lhe diga, não faz muito sentido. não falem do aumento de performance, já que isso é o suposto acontecer a cada nova geração, digo eu...
Mas imagina que neste momento, tens uma gtx 1070 e uma rtx 2060, ambas ao mesmo preço, para qual ias? Ambas têm os mesmos cuda cores, mas a 2060 é mais rápida de certeza.

Vi um vídeo do FF XV a correr DLSS e com upscaling por AI, só consegues ver diferença se colocares imagem estática lado a lado. Em vídeo corrido não notas nada. Aquilo por acaso está bem feito, e o incremento de fps ainda é considerável.

Aliás, acho que não estou enganado, mas os jogos que suportam DLSS não têm RTX e os jogos que têm RTX não suportam DLSS.

PS: Estava enganado, o Justice é o primeiro a suportar RTX e DLSS ao mesmo tempo.

justice-dlss-quality-comparison.png
 
Nvidia 1080ti e depois comparam com 2080ti.. de qualquer forma vou testar isso.

Gostava de ver era maças com maças na comparação mas venham lá mais jogos com RTX e DLSS é que passados 3 ou 4 meses ainda só temos o BF5 com RTX, depois DLSS é a mesma coisa.

A Techspot tem um artigo interessante e para quem não quer ler tudo basta ler a conclusão.

https://www.techspot.com/article/1712-nvidia-dlss/

Closing Remarks
There are a few interesting takeaways here from this early look at DLSS. But let’s first start with the limitations. We only have two demos to go on, neither of which are games we can jump in and freely play. Instead, they are fully canned, on-rails benchmarks, and it could be easier for Nvidia to optimize their AI network for these rather than for a dynamic game. So what we’re seeing here could be better DLSS image quality than in a real game output.

It’s also a pretty small sample size. Final Fantasy XV is a particularly poor comparison because its stock standard anti-aliasing, TAA, is a rubbish implementation of that technology, which blurs the otherwise sharp, clear imagery you normally get with native 4K. And while Infiltrator isn’t as limited in that regard, it’s not an actual game.

Nvidia also provided these benchmarks in a way that makes it very difficult to test anything other than the resolutions and quality settings they want us to use. Both demos are launched using batch files with pretty much everything locked down, which is why you might have only seen DLSS vs 4K TAA comparisons up to this point.

I’d have loved to pit DLSS up against better anti-aliasing techniques but it just wasn’t possible.

This is partly why I didn’t want to explore DLSS fully until we had more tools at our disposal. We still don’t know how DLSS compares to different AA techniques, or whether running at something like 1800p with a superior form of low-cost AA would deliver better results than DLSS. Without proper integration in real games, it’s simply too early to say for sure, but going on what I’ve seen so far, I don’t think DLSS is as revolutionary or important as Nvidia are making out.
 
Já cá está faltava o post a deitar abaixo a tecnologia... Sempre que se coloca alguma novidade, é sintomático. Até se vai repescar noticias de 28 de Setembro...

O importante desse vídeo é simples, que imagem vos parece melhor, a com o TAA ou a com DLSS? Cada um que tire as suas conclusões.

O que é certo é que neste momento é possível jogar Final Fantasy XV a 4K com framerate bem superior a 60fps.
 
Última edição:
Apesar de ser um mecanismo de upscale (DLSS) interessante ou um método alternativo AA com potencial (DLSS2X) a verdade é que não acho tão interessante como o DXR que é backend de standards abertos e não algo fechado para apenas nVIDIA.
Isto porque sem inc€ntivos da nVIDIA não estou a ver os developers a investirem muito tempo numa feature que existirá apenas num vendor. Quem sabe não surja um método similar que seja vendor independent.

Vão ser necessários mesmo mais jogos a implementar esta técnica para conseguirmos perceber se realmente vale a pena e qual o potencial de tanto o DLSS como o DLSS2X.
 
Vão ser necessários mesmo mais jogos a implementar esta técnica para conseguirmos perceber se realmente vale a pena e qual o potencial de tanto o DLSS como o DLSS2X.

Para já são 25 os jogos que têm ou vão ter suporte.
Segundo se fala, o Unreal Engine vai ter suporte nativo. Qualquer developer que faça um jogo com esse motor gráfico, sendo assim ficará à distancia de uns cliques adicionar suporte DLSS.
 
Para já são 25 os jogos que têm ou vão ter suporte.

O Shadow of the tomb raider foi um dos primeiros a indicar que iria ter suporte a até agora nada. O que quero dizer é que apenas posso dar um veredicto sobre a feature quando tivermos as coisas cá fora para analisar e não promessas ;)

Segundo se fala, o Unreal Engine vai ter suporte nativo. Qualquer developer que faça um jogo com esse motor gráfico, sendo assim ficará à distancia de uns cliques adicionar suporte DLSS.

Infelizmente isso não é assim tão simples. Tal como já foi explicado em vários anúncios tem de ser treinada uma rede neuronal de upscale para cada jogo e essa rede vem nos drivers e não nos jogos (quem tem gráficas RTX já deve ter reparado num item extra na instalação dos drivers que irão conter precisamente as redes treinadas).E Honestamente não me admirava nada que até possam haver múltiplas redes para o mesmo jogo para situações diferentes a fim de optimizar ao máximo a fidelidade do upscale.

Lembro-me inclusive de ter lido numa entrevista, das várias que a WCFTECH fez a vários developers que estão a adoptar novas tecnologias da nVIDIA, em que perguntaram a um developer se custou muito implementar DLSS e a resposta foi algo do tipo: Er.... deu algum trabalho.

No futuro talvez tornem o processo mais stream lined para diminuir o custo de implementação mas dificilmente será apenas uma check-box extra quando exportas um projecto no Unreal Editor.
 
Lembro-me inclusive de ter lido numa entrevista, das várias que a WCFTECH fez a vários developers que estão a adoptar novas tecnologias da nVIDIA, em que perguntaram a um developer se custou muito implementar DLSS e a resposta foi algo do tipo: Er.... deu algum trabalho.

No futuro talvez tornem o processo mais stream lined para diminuir o custo de implementação mas dificilmente será apenas uma check-box extra quando exportas um projecto no Unreal Editor.

Foi uma maneira de falar. A Nvidia tem todo o interesse de suportar o maior numero de jogos possíveis, logo isso dos drivers nem será problema. Se o motor gráfico fizer a maioria do trabalho de implementação, é muito melhor do que desenvolverem de raiz.

Mesmo assim não pode ser muito complicado, pois o FF XV já vendeu o que tinha vender e os devs decidiram mesmo assim dar suporte à tecnologia. Se fosse algo demasiado complexo, deixavam para um próximo jogo, pois duvido que este patch lhes vá fazer ganhar qualquer venda.

É uma tecnologia muito recente, vamos esperar para ver. Para os amantes de jogos em 4K não deixa de ser a grande solução para poderem jogar a 60fps estáveis com tudo no máximo no jogos que suportarem.

Também não tenho duvidas que a AMD daqui a uns tempos vem com a sua tecnologia de AA idêntica. MSAA é muito pesado, ainda mais em 4K. FXAA, TAA etc etc causa blur na imagem. Esta solução é perfeita para a evolução dos jogos e o futuro vai passar por aqui de certeza.
 
@hug0b0ss Ri-me bastante quando ele fala da GT1030 com DDR4 ! Demasiado cómico!

Basicamente ele referiu que a RTX 2070 e 2080 acrescentaram muito pouco ao mercado e que eram gráficas quase escusadas, dado que quando o RTX for uma realidade mainstream, já precisamos de novas gráficas.
 
Há muito debate do custo das RTX, ray traycing e afins. E esse video é simplesmente parvo e para o clickbait quando metem (.)(.) à descarada como 'capa'.
Não é que não goste de as ver - das reais - mas alguém para debater um assunto técnico de forma séria meter essa imagem como apresentação do vídeo.. fica logo apresentado.

Mas algo que os Tensor cores/'RTX' podem muito valer a pena, e não vejo isto a ser muito falado, é:
RED Digital Cinema and NVIDIA Make 8K Movie Editing a Reality
Content creators can edit 8K video in real time with new NVIDIA RTX-powered REDCODE RAW
Com a boa noticia que não só (obviamente) a Quadro faz, como também as gráficas de consumidor/jogos Titan RTX e 2080Ti são capazes de fazer esta edição.

Claro que Nvidia sendo Nvidia, é para as RTX..mas não todas.
É especificamente para 2080Ti ou acima, as outras RTX não e parece-me deliberadamente limitação por drivers para uma 2080 também não fazer.


Mesmo só funcionando com a 2080Ti até já é bom para o que é, mas também ainda é um pouco de nicho de mercado.
Mas aponta o caminho para a fácil edição de vídeo com boa qualidade/alta resolução via hardware relativamente barato.

Para quem não tem noção, a edição de video 8K (e até resolução mais alta) não é ter o video 8K em si, é a enorme margem de manobra para editar/melhorar a qualidade do video ao reduzir para 4K.
 
Última edição:
Back
Topo