Multi Discussão sobre PC e Consolas Nova Geração [Comparações -> Ofertas, Hardware, Performance etc.]

Nesse caso nem foi mau.
As GCN 1.0 e 1.1 eram os gpus mais avançados da época. Mais do que as kepler da nvidia.

No caso do Jaguar, era um dos melhores CPUs para APU da era. Não tinha bom IPC, mas eram baratos, pequenos e poupados na energia.
Um FX 6300 podia ter sido melhor, mas teria de ser em chips separados e não num SoC. Isto ia aumentar custos e consumo.

Na altura já havia as RX 2xx. Podia ter sido essa a base do GPU.
 
Na altura já havia as RX 2xx. Podia ter sido essa a base do GPU.

As RX 28x e 270 eram rebrands da 79xx e 78xx.
Apenas a RX 285 tinha uma nova arquitetura, mas esta saiu um ano depois da PS4.

Alias, as 7900 e 7800 usam GCN 1.0
A PS4 e X1 usam GCN 1.1, uma versão mais avançada.
As RX 290 também eram GCN 1.1
 
RT nestas consolas deixa a resolução de rastos. Já assim foi no Watch Dogs Legion. Estas consolas não foram desenhadas para RT à PC

É uma surpresa para muitos quando as consolas não são desenhadas à PC. :wink:

Agora não sei porque, duvido que haja novas consolas, a ps4 pro e xbox X venderam muito mal mesmo depois de terem saído.

A Sony na geração passada não tinha o conceito de retrocompatibilidade, e portanto tinha de garantir que os jogos feitos - e otimizados - para a PS4 desde 2013, iriam funcionar sem problemas na PS4 Pro, e para isso teve de incorporar um CPU igual, e o equivalente a dois GPUs da PS4 - sendo que um estaria desativado para jogos nativos da PS4.

Duvido que a Sony faça a mesma brincadeira para o próximo upgrade da PS5 - agora que tem finalmente RC - siga o mesmo caminho que a xbox/series, ou salte diretamente para a PS6 com um arquitetura diferente.
 
Última edição:
É uma surpresa para muitos quando as consolas não são desenhadas à PC. :wink:

Usa RDNA2, tal como no PC.
Ele disse bem, com não tem RT á nVidia.

A Sony na geração passada não tinha o conceito de retrocompatibilidade, e portanto tinha de garantir que os jogos feitos - e otimizados - para a PS4 desde 2013, iriam funcionar sem problemas na PS4 Pro, e para isso teve de incorporar um CPU igual, e o equivalente a dois GPUs da PS4 - sendo que um estaria desativado para jogos nativos da PS4.

Duvido que a Sony faça a mesma brincadeira para o próximo upgrade da PS5 - agora que tem finalmente RC - siga o mesmo caminho que a xbox/series, ou salte diretamente para a PS6 com um arquitetura diferente.

A Sony e a MS podiam ter escolhido um CPU da mesma familia que o Jaguar, como um Bristol Ridge.
Tem a mesma ISA e as mesmas features, mas com melhor IPC.
Não perdia compatibilidade com nada da PS4 e X1.
 
Usa RDNA2, tal como no PC.
Ele disse bem, com não tem RT á nVidia.

Disse-o muito bem. O meu reparo é que o DLSS é uma tecnologia para a escala do PC onde se requer FPS altíssimos sem ligar muito ao custo. Uma realidade diferente das consolas que têm outro tipo de requisitos.

A Sony e a MS podiam ter escolhido um CPU da mesma familia que o Jaguar, como um Bristol Ridge.
Tem a mesma ISA e as mesmas features, mas com melhor IPC.
Não perdia compatibilidade com nada da PS4 e X1.

Não é tão trivial como pintas. Idealmente, ter as mesmas features haveria de garantir compatibilidade, mas o jogo pode fazer truques específicos a uma arquitectura, que deixem de funcionar se esta operar de uma forma diferente. Isto foi patente na PS4 Pro, que tinha um modo de "boost" que aumentava o clock e levava alguns jogos a funcionarem mais lentamente ou a crashar. Depende obviamente de como o jogo está desenvolvido, mas assegurar que centenas de jogos já desenvolvidos 3 ou 4 anos antes haveriam de funcionar sem problemas não é trivial. Embora possam resolver incompatibilidades com patches do jogo e com o próprio OS, entendo que a Sony e a Microsoft quisessem jogar pelo seguro.

https://www.psu.com/news/ps4-boost-mode-performance-worst-running-ps4pro-games-list/
 
Última edição:
Disse-o muito bem. O meu reparo é que o DLSS é uma tecnologia para a escala do PC onde se requer FPS altíssimos sem ligar muito ao custo. Uma realidade diferente das consolas que têm outro tipo de requisitos.
O DLSS, se estivesse nas consolas era uma maravilha para todos.
Há pessoas como eu que usa o DLSS para andar acima dos 100 fps+ a 1440p
Há pessoas, que usam o DLSS para poderem andar a 4K e 60 fps.

Mesmo as consolas já têm modos de 120 fps. E terem um DLSS ou FSR ou TAAU, pode ajudar a chegar a esses frame rates.
Ou ajudar a ter uma resolução mais parecida com os 4k.

Não é tão trivial como pintas. Idealmente, ter as mesmas features haveria de garantir compatibilidade, mas o jogo pode fazer truques que deixam de funcionar ou que reduzem a sua performance numa arquitectura que tenha algumas diferenças com o original. Isto foi patente na PS4 Pro, que tinha um modo de "boost" que aumentava o clock e levava alguns jogos a funcionarem mais lentamente ou a crashar. Depende obviamente de como o jogo está desenvolvido, mas assegurar que centenas de jogos já desenvolvidos 3 ou 4 anos antes haveriam de funcionar sem problemas não é trivial. Embora possam resolver incompatibilidades com patches do jogo e com o próprio OS, entendo que a Sony e a Microsoft quisessem jogar pelo seguro.

https://www.psu.com/news/ps4-boost-mode-performance-worst-running-ps4pro-games-list/

Sim, é trivial.
Criadores de jogos que relacionam a velocidade de jogo com o frame rate são incompetentes. Com os relógios internos que existem nos CPUs das últimas décadas, andar a ligar frame rate á física, ou velocidade do jogo, é completamente estúpido e está sempre a causar problemas.
Criar um limitador de frame rate é algo extremamente fácil. Nem que seja forçando v-sync.
E definir duas velocidades de CPU, no OS das consolas pode ser feito para manter o mesmo nível de desempenho.

Basta veres que com a PS5 e Series S/X, os jogos das consolas anteriores funcionam na mesma. Muitos até beneficiam de terem frame rates e frame times muito mais estáveis.
 
O DLSS, se estivesse nas consolas era uma maravilha para todos.

Já que estamos a sonhar, preferia antes ter uma consola com o poder de uma RTX 3080. Mas temos de nos contentar com o RDNA2 (e RDNA1.5 para os infelizes que não têm VRS e INT4 :wink: ) e o FSR, porque o valor/custo de uma consola em 2021 assim o ditam.

Criadores de jogos que relacionam a velocidade de jogo com o frame rate são incompetentes.

Incompetência e idiotice acrescida para quem (falo da Sony) sabendo que há jogos feitos assim, quer introduzir um CPU diferente e que pode criar problemas de compatibilidade. A realidade do desenvolvimento de jogos das consolas não é igual a do PC, pois pelo menos na geração passada estava muito ligada (e afinada) a um hardware.
 
Última edição:
Já que estamos a sonhar, uma consola com o poder de uma RTX 3080 seria também maravilhoso. Mas temos de nos contentar com o RDNA2 (e RDNA1.5 para os infelizes que não têm VRS e INT4 :wink: ) e o FSR, porque os custos de uma consola em 2021 assim o ditam.

Sempre te disse que uma consola tem hardware de compromisso, entre custo, consumo e desempenho. Não há milagres.
Mas uma solução de upscaling por AI, é possível. Especialmente na Series S/X que têm suporte para Int 4 e 8.

Incompetência e idiotice acrescida para quem (falo da Sony) sabendo que há jogos feitos assim, quer introduzir um CPU diferente e que pode criar problemas de compatibilidade. A realidade do desenvolvimento de jogos das consolas é diferente do PC, pelo menos na geração passada, estava muito ligada (e afinada) ao hardware.

Mas não podemos continuar a ficar a depender de uma mão cheia de estúdios incompetentes, que no século XXI ainda ligam o frame rate com a física e velocidade de jogo.
Para além disso, a Sony e MS podem definir velocidades diferentes no CPU para compensar, tipo o que fizeram na PS5 e Series S/X.
 
Sempre te disse que uma consola tem hardware de compromisso, entre custo, consumo e desempenho. Não há milagres.
Mas uma solução de upscaling por AI, é possível. Especialmente na Series S/X que têm suporte para Int 4 e 8.

De facto, para mim a DLSS não é uma tecnologia de compromisso. É uma bomba nuclear, sendo tão complexa que precisa de hardware dedicado (tensor cores). Isto quer dizer que uma rede neural que faça um upscale de IA de jeito - e que não seja um flop com o DLSS 1, é tão grande e complexa que na prática não é realizável nos shaders para além de tech demos, pois começa a afectar a performance do rendering nativo.

Eu acredito que a Microsoft poderá fazer algo mais modesto, por exemplo, o upscaling de texturas de baixa resolução, algo que andavam a trabalhar a tempos e que poderá reduzir o tamanho dos assets no disco. Mas agora algo que se aproxime ao DLSS nos shaders só porque tem lá INT4 e INT8? Como dizia alguém, fico a espera... mas sentado.

Para mim, esta geração da RDNA2 está resolvida. A não ser que a AMD traga na RDNA3 suporte específico de tensor cores e aceleração de inferência de IA, o IA upscaling vai continuar a ser o domínio da Nvidia, embora cada vez menos aliciante com os melhoramentos inevitáveis do GPU, FSR e RT.
 
Última edição:
De facto, para mim a DLSS não é uma tecnologia de compromisso. É uma bomba nuclear, sendo tão complexa que precisa de hardware dedicado (tensor cores). Isto quer dizer que uma rede neural que faça um upscale de IA de jeito - e que não seja um flop com o DLSS 1, é tão grande e complexa que na prática não é realizável nos shaders, pois começa a afectar a performance do rendering nativo.

Eu não disse que o DLSS é uma tecnologia de compromisso. As consolas é que são uma tecnologia de compromisso.
A solução de DLSS da nVidia é claramente a melhor. O único problema é que quando um jogo não suporta DLSS, os tensors ficam sem uso, apenas a ocupar espaço. Que foi o que aconteceu durante quase 2 anos da minha 2070S.

Eu acredito que a Microsoft poderá fazer algo mais modesto, por exemplo, o upscaling de texturas de baixa resolução, algo que andavam a trabalhar a tempos e que poderá reduzir o tamanho dos assets no disco. Mas agora algo que se aproxime ao DLSS nos shaders só porque tem lá INT4 e INT8? Como dizia alguém, fico a espera... mas sentado.

Para mim, esta geração da RDNA2 está resolvida. A não ser que a AMD traga na RDNA3 suporte específico de tensor cores e aceleração de inferência de IA, o IA upscaling vai continuar a ser o domínio da Nvidia, embora cada vez menos aliciante com os melhoramentos inevitáveis do GPU, FSR e RT.

Estás a dizer aquilo que eu e o Ansatsu andamos a dizer, desde que estas consolas foram apresentadas.
 
Disse-o muito bem. O meu reparo é que o DLSS é uma tecnologia para a escala do PC onde se requer FPS altíssimos sem ligar muito ao custo. Uma realidade diferente das consolas que têm outro tipo de requisitos.

Por acaso acho que o DLSS conseguia ser mais útil nas consolas que no PC.

No PC o pessoal que joga em monitores 4K é uma autêntica raridade, e a resolução mais usada é 1080p e o 1440p está aos poucos a ganhar o seu espaço.

Já nas consolas, a grande maioria das TV's são 4K, não há volta a dar.

Que jeito dava se todos os jogos das consolas fossem renderizados a 1080p com DLSS para 4K. Era um upgrade enorme.
 
Por acaso acho que o DLSS conseguia ser mais útil nas consolas que no PC.
No PC o pessoal que joga em monitores 4K é uma autêntica raridade, e a resolução mais usada é 1080p e o 1440p está aos poucos a ganhar o seu espaço.
Já nas consolas, a grande maioria das TV's são 4K, não há volta a dar.
Que jeito dava se todos os jogos das consolas fossem renderizados a 1080p com DLSS para 4K. Era um upgrade enorme.

Estás a falar só da resolução, mas é preciso lembrar que no PC estás a 50-80cm do ecrã, consegues ver detalhe a 1080p que uma pessoa a 2.5-3m da TV possivelmente não vê a 4K. Por outro lado, é normal um PC gamer ter um monitor com frequências altas e até ter suporte freesync/gsync, a esmagadora maioria das TVs está nos 60Hz, e poucas ainda têm suporte VRR. É 30FPS ou 60 FPS se tiveres sorte.

Tens portanto a partida requisitos de performance e upscaling diferentes, e o DLSS foi uma tecnologia nuclear desenvolvida para o PC, porque consegue recriar detalhe com a precisão necessária para quem esteja tão perto do monitor, e dar FPS muito para além dos 60 para usufruir da capacidade dos monitores. Já as consolas com FSR, TAA e checkerboarding são suficientemente boas para as TVs de agora e da distância que se vê, sendo consideravelmente mais leves em termos de hardware.

Acredito que o IA upscaler não é o futuro do gaming - especialmente no mundo das consolas ("a máquina dos compromissos") nem telemóveis pela sua complexidade - mas sim continuará a servir um nicho de PC gamers, e possivelmente desaparecerá eventualmente, quando inevitavelmente a nvidia trouxer a sua próxima bomba inovadora. Para mim, o FSR já foi um indício claro disto, e agora estou a espera pela RDNA3 para confirmar (ou desconfirmar) isso. Neste aspecto, sei que és da opinião contrária.
 
Última edição:
Acredito que o IA upscaler não é o futuro do gaming - especialmente no mundo das consolas ("a máquina dos compromissos") nem telemóveis pela sua complexidade - mas sim continuará a servir um nicho de PC gamers, e possivelmente desaparecerá eventualmente, quando inevitavelmente a nvidia trouxer a sua próxima bomba inovadora. Para mim, o FSR já foi um indício claro disto, e agora estou a espera pela RDNA3 para confirmar (ou desconfirmar) isso. Neste aspecto, sei que és da opinião contrária.

Sou da opinião contraria pois o AI está constantemente a evoluir, conforme a quantidade de dados de jogos vai aumentando. Logo é a solução perfeita, pois existe uma evolução constante.

Vai certamente chegar ao ponto em que o DLSS ficará tão perfeito, que será basicamente impossível conseguir diferenciar a entre uma imagem com upscale e a imagem nativa.

Nem é uma questão de altas ou baixas framerates. Se as consolas tivessem um Gpu da Nvidia e suportassem o DLSS, em vez de fazerem os jogos para 1440p ou 1600p e depois meter um checkerboarding ou um TAA Upscaler, faziam o jogo para 1080p, o que significaria que poderiam puxar bem mais pela qualidade gráfica, ou então podiam puxar mais pela framerate, era à escolha do developer.

Seja como for, a Microsoft está a desenvolver o upscaler deles por AI, e estou esperançoso que antes do fim de vida da consola ainda vamos ver ver a Series X|S a puxar jogos a uma resolução inferior e depois a fazer upscale por AI.
 
É uma surpresa para muitos quando as consolas não são desenhadas à PC. :wink:



A Sony na geração passada não tinha o conceito de retrocompatibilidade, e portanto tinha de garantir que os jogos feitos - e otimizados - para a PS4 desde 2013, iriam funcionar sem problemas na PS4 Pro, e para isso teve de incorporar um CPU igual, e o equivalente a dois GPUs da PS4 - sendo que um estaria desativado para jogos nativos da PS4.

Duvido que a Sony faça a mesma brincadeira para o próximo upgrade da PS5 - agora que tem finalmente RC - siga o mesmo caminho que a xbox/series, ou salte diretamente para a PS6 com um arquitetura diferente.

Retrocompatibilidade não era um conceito alienígena. Eles não quiseram foi chatearem se e gastar recursos a investigar retrocompatibilidade por software com as consolas anteriores à PS4(antes eles tinham ficado-se por soluções de hardware).

A Sony pura e simplesmente não quis ir acima do preço do preço de lançamento da PS4,e sabia que qualquer upgrade era "comido" por quem quisesse algo mais. Queriam ajudar o negócio das TVs,mas nem pensar em arriscar o bom momento da divisão das consolas. Daí termos uma consola 4K que foi desenhada para 1440p.

Isso e já a PS5 foi outro exemplo de escolhas peregrinas de hardware,que uma PS5 Pro vai ter de corrigir.


Edit: a MS e a Sony só precisavam de escolher algo x96. Algo da família dos Jaguares,ou algo mais na linha dos desktops como temos agora,era igual.Nao era arquitecturas exóticas como o Cell ou *****.
Isso e uns SSHDs não tinham matado ninguém.

Disse-o muito bem. O meu reparo é que o DLSS é uma tecnologia para a escala do PC onde se requer FPS altíssimos sem ligar muito ao custo. Uma realidade diferente das consolas que têm outro tipo de requisitos.

Eu não falei de DLSS. Eu falei de Ray tracing à Nvidia,aka hardware específico para ele,aka tensor cores. Os tensor cores serem usados para DLSS é lateral ao meu ponto.
Mas depois voltamos ao ponto que o Torak fez em outras ocasiões que eu falei disso,era mais espaço ocupado no SoC e mais custos.
E a MS parece que não quis ir acima dos 500 dólares/euros da One X. Devem contar com melhorias da AMD nesse campo nos 3/4 seguintes ao lançamento e depois metem essas melhorias numa Séries X Elite.
 
Última edição:
Mas depois voltamos ao ponto que o Torak fez em outras ocasiões que eu falei disso,era mais espaço ocupado no SoC e mais custos.
E a MS parece que não quis ir acima dos 500 dólares/euros da One X. Devem contar com melhorias da AMD nesse campo nos 3/4 seguintes ao lançamento e depois metem essas melhorias numa Séries X Elite.
Não necessariamente. Num mundo paralelo em que a AMD tivesse algo equivalente ao DLSS (AI + Tensor Cores), se calhar removendo alguns CUs (imaginemos ficando com 40 face aos 52 actuais) e substituindo essa área por "AMD Tensors", até poderia ter melhor resultado final, usando esses 40CUs para processar 1080P, e os Tensor a fazer upscale.

Mas tinha de ser universalmente usado pelos estúdios, senão os Tensor estavam lá a dormir, e a qualidade final seria relativamente má.

Isto tudo num mundo paralelo, vale o que vale. :)
 
Eu nem pego em DLSS. Eu fico-me por hardware para Ray tracing. É que isso evitava ter de dividir os 12 teraflops da Séries X entre rasterização normal e Ray tracing,com os resultados que vemos nos jogos que implementam Ray tracing de forma mais ambiciosa.Coisas como FSR parece que podem ajudar com framerate com alguns cortes na imagem quality. Não é DLSS mas é uma ajuda na tentativa de manter 4K e bons efeitos com 60 fps.
 
Sou da opinião contraria pois o AI está constantemente a evoluir, conforme a quantidade de dados de jogos vai aumentando. Logo é a solução perfeita, pois existe uma evolução constante. Vai certamente chegar ao ponto em que o DLSS ficará tão perfeito, que será basicamente impossível conseguir diferenciar a entre uma imagem com upscale e a imagem nativa.

As redes neuronais não funcionam assim. Tens um periodo de treino onde tens uma evolução drástica do modelo, e depois tens um periodo em que o modelo estabiliza, e mais treino não melhora o resultado. Tendo em conta aquilo que o DLSS faz neste momento, diria que o modelo já estabilizou. E agora para melhorar é preciso utilizar técnicas auxiliares e afinar a integração do jogo com o DLSS para reduzir o ghosting e blurring.

A não ser que a nvidia tenha algo radicalmente diferente na manga, diria que o próximo salto do DLSS irá requerer uma rede neuronal mais pesada que não será possível correr nas Amperes, mas que futuras gráficas poderão conseguir. Isto para dizer que duvido que tenhas um grande avanço no DLSS daquele que tens neste momento com as Amperes, e os problemas vão apenas ser reduzidos mas nunca removidos.

Seja como for, a Microsoft está a desenvolver o upscaler deles por AI, e estou esperançoso que antes do fim de vida da consola ainda vamos ver ver a Series X|S a puxar jogos a uma resolução inferior e depois a fazer upscale por AI.

Isto que referes é ainda pior que há largos meses atrás quando toda gente dizia que o FSR seria baseado em machine learning, muito embora a AMD nunca confirmou que fosse o caso e era mais que claro que nunca irão fazer isso tendo em conta o hardware. E agora temos o caso da Microsoft que publicou um anúncio de trabalho para recrutar alguém para IA, e toda gente acha que vamos ter upscale por IA na Series. Ficar esperançado desta forma é mesmo masoquismo. :wink:

Eu não falei de DLSS. Eu falei de Ray tracing à Nvidia,aka hardware específico para ele,aka tensor cores. Os tensor cores serem usados para DLSS é lateral ao meu ponto.

O hardware específico para RT são RT cores. Os tensor cores são utilizados para DLSS.
 
Última edição:
Isto que referes é ainda pior que há largos meses atrás quando toda gente dizia que o FSR seria baseado em machine learning, muito embora a AMD nunca confirmou que fosse o caso e era mais que claro que nunca irão fazer isso tendo em conta o hardware. E agora temos o caso da Microsoft que publicou um anúncio de trabalho para recrutar alguém para IA, e toda gente acha que vamos ter upscale por IA na Series. Ficar esperançado desta forma é mesmo masoquismo. :wink:

Ninguém pensa que a Microsoft está a desenvolver uma tecnologia de upscaling por AI porque abriu uma vaga de trabalho. Nem sequer sabia disso.

A razão é esta:

Quantic Dream CEO David Cage pointed out that one of the biggest hardware advantages for the Xbox Series S and X consoles over the competition (chiefly, Sony's PS5) could be in their shader cores, reportedly more suitable for Machine Learning tasks thanks to hardware extensions allowing for up to 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations.

Microsoft has actually been working on a 'super-resolution' AI upscaling technique based on DirectML for quite some time. This was first revealed in a GDC 2018 paper aptly titled 'Using AI to accelerate your game', and then showcased in a SIGGRAPH 2018 live talk named 'Deep Learning for Real-Time Rendering: Accelerating GPU Inferencing with DirectML and DirectX 12'.

In both cases, Forza Horizon 3 was used as the test game to compare DirectML super-resolution against regular upscaling through the bilinear filter. Here's a screenshot they had shared at the time to compare the two.

microsoft-directmlHD-1-740x614.jpg
 
A razão é esta:

O número de vezes que já vi a referência desse único artigo/apresentação de 2018 (!) e dessa foto do FH3 aqui no Zwame - devia servir como contra-argumento. :wink: Eu interpreto isto com sendo uma tentativa de "vender" o DirectML, e utilizaram o upscaling como chamariz. Mas estar ao ponto de ser utilizado na Series como uma solução viável de upscaling, parece-me uma questão muito diferente, ainda mais tendo o FSR já anunciado e integrado em alguns jogos. Se a Microsoft lançar um IA upscaler a competir com o DLSS/FSR para a RDNA2, tens este meu post para a posteridade.
 
Última edição:
A nvidia foi a primeira e nisso teve mérito.
Mas as outras empresas estão a tentar fazer parecido.
Não me admirava nada que daqui a uns anos tuda a gente use um scaler por machine learning.
Apple, Qualcomm, AMD, Sony, Microsoft, etc.
 
Back
Topo