Multi Discussão sobre PC e Consolas Nova Geração [Comparações -> Ofertas, Hardware, Performance etc.]

Nas consolas, as várias tecnologias empregues para atingir o 4k, funcionam.(na maior parte das vezes com resultados não perfeitos, mas satisfatórios à visão)
No PC, a maior parte dessas tecnologias não são empregues, e quando são, têm resultado sofríveis.(Excetuando o Dlss, claro)
É triste mas é verdade, em PC, por norma, tudo o que não se aproxime de 1800p não parece 4k numa tv 4k.

Um pouco discutivel..
Na grande parte dos casos o upscale das consolas, é "meh". num ou outro é meio decente sim.
Mas seja qual for, acaba sempre por adicionar algum blur ( ou mesmo muito) e artefactos.

Do lado do PC sim, as implemtaçoes tem sido na grande parte fracas, o CAS da AMD é capaz de ser ao equivalente á media do que é feito nas consolas.

O DLSS é mesmo algo a outro nivel, e isso vai ser uma grande vantagem dos PC's em relação ás consolas. Com um PC a usar DLSS a ter igual ou melhor qualidade que uma consola a correr em 4K nativo.
Vai permitir que uma grafica "teoricamente mais fraca" ( TFLOPS) tenha melhor qualidade e performance.
Em relação à primeira será complicado, pois apesar de sabermos que o RT se tornará uma feature de hardware system wide, o dlss é proprietário, não estão reunidas as condições para ser adoptado pela industria.

Não percebi esta frase. Estás a falar de ser adoptado em jogos ? Ou por outro fabricantes ?
A nivel de jogos, diria que mais de metade dos jogos "blockbuster" de 2020 suportam DLSS .

Não é preciso correr em todo e qualquer jogo, basta estas nos mais importantes / mais jogados / mais pesados.


Em relação à segunda, conto com a AMD para isso, não me acredito que a Nividia traga RT e Dlss ao mercado <300€, mas tenho a certeza que a Amd fará pressão e nos dará algo muito interessante no próximo dia 28 de Outubro, principalmente aonde mais interessa, na faixa 250/350€.

Já não sei se for a nVidia que confirmou se foi um leak ; mas que as series 300 vai ser tudo corrido a RTX ( Raytracing + DLSS).

 maior competidora da nVidia não é a AMD, é a nVidia.
A nVida tem de incentivar o pessoal com graficas 1000 e anteriores a fazer upgrade, e para isso precisa de lançar hardware que compense a bom preço.
Eles ganham mais €€ a vendar graficas novas em massa do que a vender meia duzias de 3070 a 1000€ ..

Sim, mas , na minha opinião, dificilmente Apis que mudam aspectos tão fundamentais como o io, resultam sem hardware especifico, atenção, não digo que não funcionem, mas acredito sinceramente que sem hardware capaz, o efeito será quase nulo.

Aliás, acho que o RtxIo, é um bom exemplo da minha percepção.

Ao longo dos anos, o hardware teve sempre de evoluir para acompanhar a evolução do IO, é uma necessidade, o harware é construido com determinadas especificações em mente, se fosse assim tão fácil ainda andávamos com portas vga.

A nivel de grafica tera de ter essa "comptabilidade". Mas não é isso que estou a dizer.
O que estou a dizer é que um estudio que faça um jogo que suporte o directstorage nas consolas suportará automaticamente em Windows com uma grafica com RTX IO . Sem necessidade de andar a progamar para "hardware especifico" .
A API trata disso , e a API é que terrá como requesito ter RTX IO / equivalente
 
isso é das maiores mentiras que o pessoal tanto bate que depois se torna verdade, sem o ser.

33.33ms nas consolas é igual a 33.33ms no PC.

Com a vantagem que no PC tens freesync e Gsync que transforma em algo muito mais fluido que nas consolas. Além disso nas consolas é normal teres variações para sub 30fps, o que ainda agrava mais a situação.

Gsync/Freesync a 30fps? É possível? Pelo menos nunca consegui abaixo de 48.

De qualquer forma eu percebo porque as pessoas dizem que 30fps na consola parece mais fluído que no PC. Bom, na verdade para mim 30fps nunca parece fluído em situação nenhuma, excepto um caso em particular.

No PC há jogos sem limitador de framerate, normalmente são os que funcionam melhor, muito melhor que os externos como o Rivatuner, que além de acrescentar lag, não é eficiente como um limitador programado pelo dev.

Depois no PC usa-se muito o rato, e o rato é mais sensível a lag do que os comandos, nota-se mais, por assim dizer.

E em muitos modelos recentes de TV o motion plus (interpolação) faz milagres, e é a única forma em que os 30fps não me fazem confusão. Secalhar muito pessoal tem isso ligado, daí dizerem isso. E não falo das interpolações rascas de há uns anos atrás, mas sim da Samsung por exemplo, em que nem lag acrescenta e a imagem fica mesmo muito mais suave e com artefactos raros como explicam no site do rtings (muito bom para analisar TV e monitores)
 
Gsync/Freesync a 30fps? É possível? Pelo menos nunca consegui abaixo de 48.

Claro que é possivel. No meu caso o Gsync/Freesync range é entre 70hz e 144hz.

Se o jogo estiver a correr a 30fps, ele faz um multiplo disso e mete a 90hz. Se passares para 31fps, passa para 93hz, and so on.
 
E isto do G-sync/Freesync é o tipo de coisa que a maior parte dos utilizadores de consolas, nem imagina quão bom é.
É aquele tipo de vantagens que o PC em há vários anos, que é possível explicar, mas só quando se usa é que se percebe.

Com esta geração de consolas a suportar Free-sync, é o upgrade mais importante, para quem vai comprar uma TV nova.
Esqueçam os 4K. A feature que devem procurar é uma TV com suporte para Adaptive Sync.
 
Não percebi esta frase. Estás a falar de ser adoptado em jogos ? Ou por outro fabricantes ?
A nivel de jogos, diria que mais de metade dos jogos "blockbuster" de 2020 suportam DLSS .

Não é preciso correr em todo e qualquer jogo, basta estas nos mais importantes / mais jogados / mais pesados.

Falava em ser adoptado system wide no windows, mas já me esclareceram que isso passará pelo directml da Microsoft, uma api à la dlss que será incorporado no directx , aliás pelo que li, até se espera que as nova RDNA já possam ter algum tipo de aplicação directa.
Mas mesmo que não tenham, é uma questão de tempo, já percebi que tecnologias como o dsll são fulcrais para avançarmos com a fidelidade gráfica, pelo que cedo ou tarde serão adoptadas em massa.
 
Sabemos que as Navi2 têm hardware para Ai com suporte Int4 e Int8.
Mas criar o hardware é a parte mais fácil. A parte complicada é treinar a AI para fazer algo tão bom como o DLSS 2.0
A AMD provavelmente está à espera que outras empresas de software criem soluções middleware para isto.
 
Claro que é possivel. No meu caso o Gsync/Freesync range é entre 70hz e 144hz.

Se o jogo estiver a correr a 30fps, ele faz um multiplo disso e mete a 90hz. Se passares para 31fps, passa para 93hz, and so on.

Isso não funciona assim em todos os monitores, garanto-te. Em muitos modelos, assim que os fps vão abaixo de 48, o VRR é desligado. No teu pode não ser o caso, provavelmente tens um modelo superior nesse aspecto.

Outra coisa @Torak , a Xbox já tem freesync há alguns anos, não é algo novo nesta geração. É novo para a Sony.
 
Isso não funciona assim em todos os monitores, garanto-te. Em muitos modelos, assim que os fps vão abaixo de 48, o VRR é desligado. No teu pode não ser o caso, provavelmente tens um modelo superior nesse aspecto.

No caso do Gsync garanto que funciona em todos os monitores. No caso do Freesync actualmente todos os monitores fazem isso, os primeiros provavelmente não fariam, que deve ser a esses que te estás a referir.
 
Sabemos que as Navi2 têm hardware para Ai com suporte Int4 e Int8.
Tem hardware com suporte para o tipo de cálculo, mas nao necessáriamente a performance necessáriamente para o fazer realtime num jogo.
As RTX teram pra ai 10x a performance int 8/4 das AMD, e sem ter de perder performance de rasterização.
 
Tem hardware com suporte para o tipo de cálculo, mas nao necessáriamente a performance necessáriamente para o fazer realtime num jogo.
As RTX teram pra ai 10x a performance int 8/4 das AMD, e sem ter de perder performance de rasterização.

Exacto, as RTX têm muito mais capacidade de Int4 e 8.
Por exemplo, até mesmo a 2060, bate a XBSX por uma margem bem grande.
A XBSX faz 49 TOPs em Int8 e 97 em Int4.
Para comparação, a RTX 2060 faz 100 TOPs em Int8. É basicamente o dobro da capacidade.


Não sei qual a percentagem de tipo de precisão usada no DLSS 2.0.
Mas o QW-Net usa 95% de Int4.

Mesmo não sendo a coisa mais potente, não creio que a AMD e MS tenham colocado unidades de Inteiros, que não fossem capazes de processar uma imagem em tempo real.
Mas como em tudo nas consolas, vai ser "optimizado", ou seja, reduzem a qualidade até obterem o tempo de renderização desejado. E claro, o tempo de renderização será 33.33 ms na maioria dos jogos, ou seja, 30 FPS.

No entanto, não sabemos como vai ser nas Navi2 de PC. Mas se usar a mesma proporção de shaders/Inteiros/ray-tracing, então vai ter uma capacidade de Int8 muito mais baixa do que as RTX 3000.
 
Exacto, as RTX têm muito mais capacidade de Int4 e 8.
Por exemplo, até mesmo a 2060, bate a XBSX por uma margem bem grande.
A XBSX faz 49 TOPs em Int8 e 97 em Int4.
Para comparação, a RTX 2060 faz 100 TOPs em Int8. É basicamente o dobro da capacidade.


Não sei qual a percentagem de tipo de precisão usada no DLSS 2.0.
Mas o QW-Net usa 95% de Int4.

Mesmo não sendo a coisa mais potente, não creio que a AMD e MS tenham colocado unidades de Inteiros, que não fossem capazes de processar uma imagem em tempo real.
Mas como em tudo nas consolas, vai ser "optimizado", ou seja, reduzem a qualidade até obterem o tempo de renderização desejado. E claro, o tempo de renderização será 33.33 ms na maioria dos jogos, ou seja, 30 FPS.

No entanto, não sabemos como vai ser nas Navi2 de PC. Mas se usar a mesma proporção de shaders/Inteiros/ray-tracing, então vai ter uma capacidade de Int8 muito mais baixa do que as RTX 3000.

Queria ter dito RTX3000 ..
Mas mesmo em comparação com a 2060, na pratica, será sempre menos de 1/4 .

Se meteram a series X a 50/50, fica uma consola com 6Tflops para raster + 24/48 Int 8/4 para AI upscale. Ainda fica bastante atras.

Tendo em conta as 3000 que ja sairam, a 3060 vai ter uns 12-15 tflops ( não equiparaveis directamente ) + uns 200 a 400 Tops int 8 / 400 a 800 tops int4. ( Consoante a esparcidade da matriz).

Estamos a falar de ter ai perto do dobro da capacidade radterizacao e 10x o compute para AI.
 
A 2060 tem pouco mais do dobro de TOPs Int8, que a XBSX: 49 vs 100
A 3060 Ti vai ter +/- 270 TOPs em Int8.
Uma potencial 3060, deve ficar perto dos 200 TOPs Int8.
Isso significa que a 3060 vai ter mais ou menos, 4X o poder de AI Int8 4 Int 4, que a XBSX.
Até mesmo uma 3050, deverá ter mais capacidade de TOPs.
 
A 2060 tem pouco mais do dobro de TOPs Int8, que a XBSX: 49 vs 100
A 3060 Ti vai ter +/- 270 TOPs em Int8.
Uma potencial 3060, deve ficar perto dos 200 TOPs Int8.
Isso significa que a 3060 vai ter mais ou menos, 4X o poder de AI Int8 4 Int 4, que a XBSX.
Até mesmo uma 3050, deverá ter mais capacidade de TOPs.
Mas tu a 49 tops na XBSX a imagem vai vir de onde ? Tu para teres esses 49tops não podes estar a fazer mais nada na grafica.
Dai eu ter mencionado o casso 50/50 como exemplo...

Quando à 3060, as 3000 em sparce chegam a ter o dobro da capacidade de computação. Esses 270 int8 transformam-se em 540 tops int8 ( 1080 tops int 4 )
 
Pela apresentação a MS, têm hardware especifico para cálculos de ML.

SwAChQXS2JsgGPpGVJvekP-650-80.jpg
 
Pela apresentação a MS, têm hardware especifico para cálculos de ML.

SwAChQXS2JsgGPpGVJvekP-650-80.jpg
Nessa mesma apresentação tens lá o "esquematico" dos CU de RDNA2.
O que eles fizeram foi adicionar integer Alu's ao lado dos Floating points. Mas está tudo dentro do mesmo CU, e o CU ou faz output de uma coisa ou outra.

Ainda antes do tempo dos tensor cores ja ja tinhas nas Teslas Pascal as unidades Int8 nos cuda cores. E cada cuda core podia fazer operacoes floating point ou integer. Não as 2 ao mesmo tempo...

Ele tem 4 scalar ALU's mas estando ser necessario tambem floaring point, ele divide o numero de instruções que processa entre os 2.
Ate mesmo o raytracing é partilhado com as operacoes de texture. Ou seja, aquele maximo de raytracing operariona nem.deve ser alcançavel porque a gráfica tambem vai precisar se parte do tempo para mapear texturas.
202008180220211.jpg
 
Última edição:
Mas cada CU tem a capacidade de lançar 2 Vector e 2 Scalar, ao mesmo tempo.
Para além disso, não tens nada que confirme que essas ALUs são as usadas para ML.
A MS afirma que adicionaram hardware extra para ML.
--------------------
Infelizmente, nem a Ms nem a AMD foram completamente claras neste aspecto.
Mas se o suporte para Int8 e Int4 for nos shaders, não há diferenças para a Navi1.
E se a Navi2 não tiver unidades dedicadas para AI / ML, então é uma desgraça completa.

RNDA-Machine-Learning-Ops.jpg
 
Última edição:
Essas contas de tops batem com o normal "multiplicação" em shaders.. cstumas ter uma multiplicação por 2 com o reduzir do tamanho..

12tfops fp32> 24 tflops fp16 > 48 tops int8 > 96 tops int4.

Mas lá está, so quando saírem é que se saberá os detalhes concretos
 
Sim, eu também vi isso.
Mas tendo em conta que é normal as unidades escalarem em proporção, pode ser apenas isso.

Temos de esperar para ver o que a AMD apresenta.
Mas se o que tu dizes é verdade, então a XBSX e PS5 estão bem pior do que esperava.
 
Ou seja , para ti, uma RTX2080 vai passar a ser gama baixa?
E olhando para o o "todo" o CPU , o SSD e a RAM é gama tudo gama baixa?

Continuando sobre o que estávamos a debater no outro tópico, não é expectável que a PS5 tenha a performance da RTX 2080, mas sim, esse tipo de performance vai passar a ser gama média baixa. Recordo-te que a gama média (RTX 3070) tem mais do dobro da performance anunciada pela Sony em relação à PS5.

Dentro de meses estaremos a comparar a PS5 com uma Nvidia 3050 ou 3060 no máximo, e a 3060 pelos rumores vai ultrapassar a PS5 facilmente também.
 
Baixa gama?
Não achas que estás a exagerar um bocadinho?

Tens que explicar então o que são gamas medias e altas, porque se a PS5 com o hardware que tem é gama baixa..

Uma RTX 3060 Ti, que já foi anunciada, faz 19 TFLOPs de shader throughput.
Também faz 33 RT-TFLOPs em ray-tracing.
Para além de ter uma arquitectura um pouco mais eficiente em termos de desempenho e consumo, do que as Navi2.

Uma PS5, faz 10.2 TFLOPs de shader Throughput, mas isto é a correr bem, quando a consola conseguir manter os 2.23Ghz.
Na realidade, a velocidade deve ser inferior. Provavelmente deve rondar os 9 TFLOPs.
Em termos de ray-tracing, a PS5 faz apenas 11 RT-TFLOPs, sendo isto o máximo, com o GPU a 2.23Ghz.
Mas isto tem um problema, é que a Navi2 usa as unidades de texturização para fazer os cálculos de texturas e de Ray-tracing.
Ou faz uma coisa ou a outra. Por isso, na realidade, esses 11 RT-TFLOPs são muito menos.

Resumindo, a PS5 tem metade do poder de shaders de uma 3060Ti, e 3.3 vezes menos capacidade de ray-tracing.
Para teres em conta o quão fraca é a PS5 em termos de ray-tracing, tem em conta que a placa gráfica mais fraca, da geração anterior, que é a 2060, faz 17 RT-TFLOPs.

Depois, ainda temos outra questão. Ainda não temos confirmação sequer de que a PS5 vai ter hardware dedicado para AI.
Com DLSS 2.0, mesmo uma gráfica "fraca" como a RTX 2060 consegue fazer 4k a 90 fps no Death Stranding.
 
Back
Topo