Isso é algo que ninguém sabe e provavelmente nunca vamos saber.
Nos jogos mais intensivos e principalmente os que usam RT, vai usar certamente a potência máxima do Gpu. Não sabemos é que impacto isso tem no Cpu e para que velocidades vai descer.
No caso de uma Turing/Ampere, como têm hardware dedicado para RT, num jogo que use RT, vai ligar essas unidades e consumir mais.
Mas nas RDNA2, apenas tem os ray-acelerators, que são pequenos e apenas aceleram a construção da extrutura BVH. Estas unidades, como são pequenas, pouco vão aumentar o consumo do GPU.
Depois, o calculo do resto do RT, é feito nos shaders, o que vai dar quase no mesmo, seja RT ou shading tradicional.
Não foi isso que ele disse.
O Cpu da Series é fixo a 3.6 Ghz. O Cpu da PS5 não é fixo a 3.4 Ghz, é variavel. O que foi explicado é que a PS5 não consegue usar o Cpu e o Gpu ambos à maxima potencia, logo se o Gpu estiver a ser usado na velocidade máxima, a velocidade do Cpu vai cair. Agora ninguém sabe para quanto cai pois a Sony não se descoze, se para 3.2, se para 3.0, se para 2.8...
Exactamente.
Por acaso, recentemente vi uma experiência que foi feita com um Ryzen 5600X, onde o OC no controlador de memória para 2133 para 3600, resultou num aumento de +/-10W
O SoC deste CPU tem um limite combinado. Estes 10W extra no controlador de memória resultou em menos energia para o CPU. O CPU passou de 56W para 46W de consumo.
E o resultado foi uma perda de desempenho de 5-6% em situações onde o CPU é puxado.
Se com um controlador de memória a gastar 10W a mais, acontece isto, imagina com um GPU a 2.25Ghz a ser puxado como deve ser.
A velocidade do CPU da PS5 deve ter uma boa queda. Ou então o sistema desliga ou ou dois cores, para compensar.