A acontecer um "falecimento" do DLSS, nunca seria no periodo de meses mas sim de anos. G-Sync por exemplo não faleceu, aliás aconteceu algo semelhante com a nvidia a ficar mais agressiva com a integração da sua tecnologia proprietária nos meses seguintes à chegada do Freesync, mas eventualmente foram obrigados a integrar o ecossistema Freesync.
Mas as coisas estão prestes a ficar interessantes com a chegada de XeSS e da Intel, aliás neste momento acho que o Huang está mais preocupado com a Intel do que outra coisa.
Se tivesse de apostar as minhas fichas no que ao upscaling diz respeito seria na Intel.
Não acredito muito no sucesso do XeSS, pois funciona por software em todas as placas que não são da Intel. Será basicamente para um nicho.
O que acredito é que eventualmente a tecnologia vai evoluir para o DirectML, e depois essa API trata de usar o DLSS, o XeSS, ou o que quer que seja.
Similar ao que acontece com o DXR.
Para quem pensava que o DLSS ia morrer com a chegada do FSR, não podia estar mais errado.
Cada vez mais jogos a suportarem a tecnologia.
@Ansatsu
Segundo o Tom Petersen (ex-nvidia e agora intel) a ideia é o XeSS evoluir para uma API standard para os vendors implementarem o algoritmo de scaling a nível de drivers.
Resumindo: não misturem APIs com implementações.
Não induz nada em erro lol. API como o próprio nome indica é uma interface (Application Programming Interface) e eu disse que o objectivo é evoluir para uma API standard em que cada vendor define a sua implementação.
Não induz nada em erro lol. API como o próprio nome indica é uma interface (Application Programming Interface) e eu disse que o objectivo é evoluir XeSS para uma API standard em que cada vendor define a sua implementação.
Estás um pouco por fora. XeSS funciona com aceleração de hardware. Nos vendors que não são Intel utiliza instruções DP4a, nas placas intel vai usar XMX que são os aceleradores de inferência de dados que a Intel vai incluir nos seus chips.
Não, em DirectML a aplicação tem de submeter o modelo sobre o qual quer inferir e tens de manualmente gerir directamente os buffers de entrada e de saída do modelo. A ideia é abstrair