Gráfica NVIDIA Turing (GTX 1600 series, RTX 2000 (Super) series, Quadro RTX)

Da mesma forma que quem comprou a 5700XT vão ficar chateados se pegarem no Cyberpunk e repararem que quem comprou uma placa 100€ mais barata vai ter muito melhor performance e com acesso a uma qualidade gráfica que só o Ray Tracing permite.

Também vai ser lixado saber que pagaram mais para ter uma pior experiência em todos os sentidos.

Como vês, esse argumento dá para os dois lados.

Talvez isso possa acontecer, mas o teu argumento nao vai de encontro ao que refiro e dessa forma esse argumento, pelo menos, para mim nao e' valido. Outra coisa, existem muitos mais jogos que o cyberpunk 2077, para alguns users daqui parece que so' existem 1/2 dúzia de jogos, o cyberpunk 2077 e + uns 4 ou 5... Nada contra.


portanto seres contra a existência do produto não faz qualquer sentido lol.

Leste o que escrevi?!?!? Se leste claramente nao entendeste, eu digo claramente que NAO sou contra a tecnologia, sou contra a forma como a passam para o mercado consumidor. E sou ponderado em termos de expectativa e recomendacoes baseadas em especulação e hype...
 
Entao mas achas isto bem? Quer dizer o pessoal tem de pagar upfront para uma tecnologia e ficar na esperança que a usem, deveriam colocar a tecnologia nas maos dos devs primeiro (gpus quadro, tesla ou whatever), e quando a coisa estivesse generalizada metiam ca' fora e passavam uma parte desse custo para o pessoal, agora promessas... Imaginemos daqui a 2 anos sai a geração 4000 e dlss v4 e cobram-te mais dinheiro e fazem propaganda AGORA E' QUE E' e continuam a meter as maos no bolso do pessoal.

Ninguem te obriga a compra-la.
- Não é ao estar nas quadro ou teslas que vão fazer jogos com elas
- É preciso haver jogos no mercado para usar a tecnologia, mas é preciso haver hardware no mercado para que saim os jogos. É um problema de ovo e galinha.
- Quem acredite que a tecnologia pode vir a dar frutos compra, que não acha não compra. SE der, quem comprou é recompensado, é uma aposta.
- Mesmo com o aumento de preço das graficas, a nvidia está a absorver parte do custo de introdição desta nova tencologia.. Eles não estão " a meter a mão ao bolso de ninguem"

Tu queres ter os jogos todos preparado e com suporte antes se sequer haver hardware no mercado, tudo á banca da nvidia .. Tens noção da enormidade de custo que isso seria ?
Assim, o consumidor paga um pequeno extra, a nvidia paga tambem uma boa parte, e os developers tambem fazem algum do investimento. É a dividir por todos..

Para mim, o que oferecem e tem potencial de oferecer, a diferença de custo que a nvidia está a cobrar é que adequada.
- Se der bem, os 50€ que pagas-te a mais transformam-se em 500€.
- Se der mal, perdeste 50€ .
Nem a bolsa tem tão boa rentabilidade..
 
Talvez isso possa acontecer, mas o teu argumento nao vai de encontro ao que refiro e dessa forma esse argumento, pelo menos, para mim nao e' valido. Outra coisa, existem muitos mais jogos que o cyberpunk 2077, para alguns users daqui parece que so' existem 1/2 dúzia de jogos, o cyberpunk 2077 e + uns 4 ou 5... Nada contra.

O DLSS + Ray Tracing já está em mais de 30 jogos, incluíndo o jogo mais vendido de todos os tempos, Minecraft :D

O problema é que uma RTX 2060 é mais barata e deveria ser pior em todos os jogos quando comparada com a 5700XT.
Só que não é assim, em qualquer jogo que suporte DLSS e Ray Tracing, esta gráfica mais barata vai ser superior. E cada vez mais a tendência é sair mais jogos com suporte.
 
Neste momento, a nvidia mesmo sem ray tracing ou DLSS seria a minha primeira opção, só para evitar os pesadelos que tive com drivers nas gráficas da AMD. Processadores sim senhor, gráficas dispenso mesmo. Daí que para mim nem vale a pena discutir o valor do DLSS ou RTX como argumento face à concorrência. A nvidia até pode ter 10 features a menos que a AMD, não quero ter nada a ver com essas placas :D
 
A nvidea inovou e meteu tecnologias benéficas para todos na mercado dos jogos.Se assim não fosse ainda não tínhamos DLSS,continuávamos no msm caminho da estagnação. Em relação ao suporte dos jogos ainda serem poucos..... normalíssimo os jogos demoram anos a ser desenvolvidos obviamente não vais ter tds jogos com capacidade de aproveitar tais tecnologias de imediato.

Agora RT cores/tensor cores, eu não tenho duvidas que vão aumentar performance pk vão "libertar" os cudas para outras coisas. Clap Clap nvidea way to go.


Cps
 
Última edição:
como é agora o dlss 2.0 engane-se quem pensa que simplesmente não há mais jogos a suportar a tecnologia pq os jogos demoram tempo a serem desenvolvidos. por agora para os jogos suportarem a tecnologia é claro: a nVidia tem que se chegar à frente e pagar para tal, até pq o mercado do pc gaming é um nicho e quando falamos das rtx ainda mais pequeno fica.
 
Neural SuperSampling Is a Hardware Agnostic DLSS Alternative by Facebook

Atenção que poderá não ser agnóstico de engine e vamos esperar para ver isto em acção para avaliar bem a qualidade (DLSS1.0 também teve screenshots fantásticas na apresentação) e qual a penalização de performance (apesar de tudo DLSS2.0 usa os tensor cores para auxiliar os cálculos e tira proveito da arquitectura turing correr operações INT e FP em paralelo)
 
já o escrevi aqui várias vezes e vou continuar a escrever que, enquanto estas técnicas de IA para melhorarem imagens de baixa resolução, não forem implementadas numa API tipo vulkan ou directx, de forma a poderem ser usadas de forma agnóstica, não vão ganhar a tracção que os fãs hardcore da nvidia/AMD desejariam, por muito que isso os melindre. porque garantidamente que a AMD também vai lançar a sua versão DLSS.
Até lá, estes truques vão ter o mesmo sucesso que o gsync, physx e gameworks.
 
já o escrevi aqui várias vezes e vou continuar a escrever que, enquanto estas técnicas de IA para melhorarem imagens de baixa resolução, não forem implementadas numa API tipo vulkan ou directx, de forma a poderem ser usadas de forma agnóstica, não vão ganhar a tracção que os fãs hardcore da nvidia/AMD desejariam, por muito que isso os melindre. porque garantidamente que a AMD também vai lançar a sua versão DLSS.
Até lá, estes truques vão ter o mesmo sucesso que o gsync, physx e gameworks.

Tendo em conta que a Nvidia tem a grande maioria do mercado, não sei se será bem assim. Um developer que coloque DLSS no seu jogo, sabe que está a faze-lo para a maioria dos consumidores.

Agora ainda não se nota muito, pois ainda há muita gente com a serie GTX 10xx em casa, mas agora com Ampere a sair, essa geração vai cada vez mais migrar para novas graficas.

Quanto à API já existe, que é o DirectML. Só que depois tens de fazer a tua implementação do DLSS sobre a mesma e tens de ter o hardware dedicado no Gpu para acelerar o calculo de AI.

O Physx sempre funcionou em qualquer hardware. Simplesmente usava o Cpu se o teu Gpu fosse Amd.
O Gameworks tem um problema, é muito pesado no GPU. Mesmo assim, que me lembre, funciona nos Gpu's da AMD, logo não percebi a comparação.
O DLSS é exactamente o oposto, é para dar performance, não para retirar, logo existe todo o interesse na implementação.
 
Physx é mesmo mau exemplo pois é usado em carradas de jogos (e em alturas acredito que tenha sido até usado em mais de 50% dos jogos lançados).

É usado inclusive em jogos de consolas [emoji14]
 
Já não me lembro do último jogo que usava Physx acelelrado pelo GPU.
Aliás, já faz uns dois ou três anos que nem instalo o Physx que vem nas drivers da nVidia.
 
suponho que, quando te referes ao mercado, te estejas a referir ao mercado de jogos, e nesse caso tens de contar com as consolas, portanto no total os números devem ser bem mais equilibrados.
O physx após ser ser adquirido pela nvidia, foi portado para CUDA, e só a partir de 2015 é que a nvidia libertou o código, segundo a wikipedia. Não sei que jogos suportavam physx mas suponho que, tendo de correr por CPU quando não havia gpu da nvidia, o desempenho fosse bastante inferior. e havia a concorrência de motores como o HAVOK.
 
suponho que, quando te referes ao mercado, te estejas a referir ao mercado de jogos, e nesse caso tens de contar com as consolas, portanto no total os números devem ser bem mais equilibrados.

Se fores por ai, então tens a prova que os devs sempre implementaram muita coisa que não entra na versão das consolas.
 
Já não me lembro do último jogo que usava Physx acelelrado pelo GPU.
Aliás, já faz uns dois ou três anos que nem instalo o Physx que vem nas drivers da nVidia.
Não disse que era acelarado por gpu mas sim que era usado o que são coisas diferentes (na versão usada nas consolas era óbvio q usa apenas cpu).

Tu provavelmente jogaste jogos com physx e nem sabias :) o unreal engine, por exemplo, há muito que tem o physx integrado e inclusive com a source disponível.
 
Neural SuperSampling Is a Hardware Agnostic DLSS Alternative by Facebook

Atenção que poderá não ser agnóstico de engine e vamos esperar para ver isto em acção para avaliar bem a qualidade (DLSS1.0 também teve screenshots fantásticas na apresentação) e qual a penalização de performance (apesar de tudo DLSS2.0 usa os tensor cores para auxiliar os cálculos e tira proveito da arquitectura turing correr operações INT e FP em paralelo)

diria que isto só favorece ainda mais a nVidia ..
Se avançar mais para a frente pode vir a dar motivação para a implementação em ainda mais jogos, e poderá na mesma correr em tensor cores, dando um boost gigante ás nVidia na mesma face à concorrencia ( que terão de correr nos shaders )
 
GeForce GTX 1650 GDDR6 Encoders May Vary: Check the Specs
https://www.tomshardware.com/uk/news/geforce-gtx-1650-gddr6-encoders-may-vary-check-the-specs

Nada como confundir o consumidor com produtos diferentes com o mesmo nome... Por muito pequena que seja a alteração na prática esta deveria ser comunicada de forma simples e transparente no produto. Actualmente as 2060 com tu104 não são claras nos nomes dos produtos e têm uma diferença de performance considerável em alguns workloads.

Sinceramente este tipo de práticas deveriam ser consideradas ilegais.
 
É o que dá ser a marca dominante e podes fazer o que quiser.

Bizarro é o TU117 que foi o último Turing ASIC vir com encoder antigo...
 
Já não é a primeira, nem será a última vez que a nVidia faz disto. E a AMD também.
Há muito tempo que estas empresas fazem disto, com impunidade.
Basta lembrar a confusão que foi com as FX5200, há quase 20 anos atrás.
 
Back
Topo