Gráfica AMD RDNA2 (RX 6000 series)

Dark Kaeser

Colaborador
Staff
PARA FEEDBACK PESSOAL, USAR A THREAD ABAIXO! Posts de offtopic serão apagados sem aviso previo!

https://forum.zwame.pt/threads/amd-rdna2-rx-6000-series-diario-de-bordo.1057117/

Vou criar um novo tópico porque parece que afinal Navi2x poderá ser mais que um "rebrand".

Reservado

Radeon-RX-6000-Series-RDNA2-Starts-At-The-High-End.png


Infinity Cache

RX6800_09_575px.jpg

AMD is not going into too many ideas about the Infinity Cache today, but at a high level, this is a sizable on-chip cache that according to AMD functions a lot like an L3 cache on a CPU. Just how similar remains to be seen, but conceptually, it can be thought of as a local cache that buffers against reads and writes to the main memory, and provides a backstop for large operations that’s a lot faster than having to go out to VRAM.
Navi 21 will have a 128MB Infinity Cache. Meanwhile AMD isn’t speaking about other GPUs, but those will presumably include smaller caches as fast caches eat up a lot of die space. On which note, doing some quick paper napkin math and assuming AMD is using standard 6T SRAM, Navi 21’s Infinity Cache would be at least 6 billion transistors in size, which is a significant number of transistors even on TSMC’s 7nm process (for reference, the entirety of Navi 10 is 10.3B transistors). In practice I suspect AMD has some optimizations in place to minimize the number of transistors used and space occupied, but regardless, the amount of die space they have to be devoting to the Infinity Cache is significant. So this is a major architectural trade-off for the company.
https://www.anandtech.com/show/1620...a2-starts-at-the-highend-coming-november-18th
 
Última edição pelo moderador:
Eles mencionaram também ganhos do mesmo nível em eficiência energética como de GCN para RDNA 1, ou seja, é possível que consigam escalar bastante a performance novamente, o que seria muito bom. Parece que as arquitecturas que foram desenhadas devem ter tido o mesmo tipo de estratégia base que Zen. Não falo da arquitectura e desenho em si, mas eles claramente que retiraram alguma aprendizagem importante de Zen para RDNA, porque os ganhos estão a ser claros.

E RT de hardware? Nada de inesperado, as consolas de nova geração já deixaram isso muito claro. Resta ver se é por ASIC, ou integraram isso no chip. Isso é que eu achava interessante de ver.
 
Verdade seja dita, o aumento de eficiência será maior de RDNA1 para RDNA2, do que foi de GCN para RDNA1.
A AMD afirmou que quase 1/3 da melhoria de eficiência da RDNA1 foi por causa da passagem para 7nm.
Mas para RDNA2 vamos continuar com 7nm. O processo de 7nm pode estar mais maduro, mas mesmo assim, as melhorias de arquitetura vão ser responsáveis por quase todo o aumento de eficiência.
 
A ver vamos se AMD realmente surpreende , nem que seja meter os produtos a tempo de concorrer vs Nvidia já era uma grande ajuda mesmo perdendo ligeiramente . O grande problema da AMD é demorar meses a fios para ter algo no mercado face a NVidia, nos últimos anos .
 
@miguelbazil não diria de todo que RT por hardware era esperado, uma vez que toda a gente parecia apontar que Navi 2x seria apenas "uma espécie de rebrand". A confirmar quando se falar da arquitectura.

Em relação ao resto, sim, check
DO2WfU0WsAAgW1j

Advanced Micro Devices is counting on its new Zen advanced processor core will help boost the company’s fortunes. members or the Zen design team are: Mike Clark, front left, and team leader Suzanne Plummer, and in background from left are Teja Singh, Lyndal Curry, Mike Tuuk, Farhan Rahman, Andy Halliday, Matt Crum, Mike Bates and Joshua Bell.
https://forum.zwame.pt/threads/keller-to-leave-amd.931770/#post-13152356

Fast Forward um ano depois
“A lot of what we did in Zen was trying to push well beyond what we thought we could do,” says Plummer, “and I think that is something we’re trying to do in the graphics space as well to make a bigger leap forward.

“We’ve pulled in some of the expertise from the microprocessor cores team into the graphics team, kinda helping with our methodology, and improving our frequency and our performance and power. And just taking the best that we have already developed in-house and trying to make sure that we’re using the same improvements across the company.”
https://twitter.com/amd/status/984161233635954688
https://forum.zwame.pt/threads/grap...nd-david-wang-join-amd.1008412/#post-15255504


Na apresentação da RDNA já apareciam em alguns slides

Navi-Slide-20-640x358.jpg


e já agora

EJ-PwOmU4AAVB9b

https://twitter.com/chiakokhua/status/1197834092407967745
;)
 
Bom ver que Zen trouxe ganhos em várias áreas, inclusive na divisão de GPU's. Parece que esta renovação da AMD lhes está a permitir voltar a dar saltos de interesse e a competir.

Relativamente ao não ser esperado RT, a meu ver, seria difícil não vir. Não esquecer que a arquitectura base de RDNA2 está a vir nas consolas com RT. Isso implica que provavelmente a Sony e MS contribuíram bem para o R&D de RT, e que a AMD iria capitalizar nisso também para si própria. Ao passarmos a usar as mesmas arquitecturas nas consolas que no PC, passam a partilhar tecnologia mais facilmente. E a ideia geral sempre foi que, uma vez que aparecesse nas consolas, iria ser impossível não chegar muito rapidamente ao PC. Como as consolas usam hardware e API's padrão, isto iria gerar o mesmo no PC quando está a haver tamanha partilha.

Vai haver uma API muito mais padronizada para RT, e o PC não vai ficar atrás nisso, certamente. Olha lá a AMD não ganhar algo com isso também...

@Torak honestamente, não esperava um salto enorme em eficiência, esperava sim ganhos maiores pela arquitectura, uma vez que um dos objectivos era "matar" o que faltava de GCN, ou seja, esperava que isto escalasse mais agora, ao perder a parte legacy. A não ser que me digas que GCN estava a forçar consumos maiores por arquitectura a esse ponto... Estamos a falar, supostamente, de ganhos de 50% novamente, segundo os slides.

EDIT: eis o slide:
amd-rdna-2-performance-1200x9999.jpg
 
Última edição:
Bem,a Lisa Su é sobrinha do Jen Hsun Huang, por isso a habilidade de gerir bem uma empresa de tecnologia está no (R)DNA. :001:

Edit: @miguelbazil Pelo que diz a AMD, vamos ter tech do Ryzen no RNDA2.
Uma das coisas que o Ryzen 2 fez muito bem foi o controlo de voltagem/clocks/temperatura, para maximizar o desempenho, dentro das restrições de temperatura e consumo. Isto resultou num CPU que praticamente eliminou as vantagens de undervolting e/ou overclocking.
Se estas técnicas forem aplicadas ao RDNA2, pode explicar o porque de a eficiência ter um aumento tão grande.
Imagina um GPU a conseguir alterar a sua velocidade a cada milissegundo, como o Ryzen. Isto significa que o GPU pode aproveitar todas as oportunidades que tem para "descansar"

O GCN tinha coisas boas, mas também tinha alguns problemas graves. Utilizar warps/waves de 64, quando a norma no PC eram e ainda são 32, significa que era frequente ficarem shaders sem fazer nada, apenas a gastar energia.
Depois também tinha uma necessidade elevada de aceder à memória da gráfica, gastando mais energia do que as Maxwell, Pascall, Turing e RDNA. Com o uso mais inteligente de caches no GPU, a RDNA conseguiu reduzir os acessos à memória principal. Por ter menos controladores de memória e ter menos acessos fora do GPU, o RDNA consegue ser bem mais eficiente.

Uma coisa que gostava de saber é quantos stages tem o pipeline de execução de cada uma destas arquiteturas gráficas. Mas infelizmente, nem a nVidia nem a AMD divulgam esta informação.
O único que sei é da Kepler da nVidia, com cerca de 450 stages.
 
Última edição:
Então parece que vai mesmo ser desta vez que a AMD vai dar luta à Nvidia pela coroa. Já não era sem tempo!!! Pode não conseguir bater uma 3080ti, mas nem precisa para acabar com o milking da Nvidia.

Vamos lá ver se o Corona Vírus não estraga os lançamentos deste ano :wscared:.
 
Utilizar warps/waves de 64, quando a norma no PC eram e ainda são 32, significa que era frequente ficarem shaders sem fazer nada, apenas a gastar energia.

Sim, entendo a parte de controlo de energia pois faz todo o sentido, e sei que o custo energético de acesso à memória também tem algum peso. Mas queria pegar neste ponto em específico. Como não entendo as arquitecturas em si, isto deixa-me a pensar... Os shaders não são geridos individualmente, certo? Ou seja, o consumo energético dos que estão em idle ainda acontece, porque estão num grupo de shaders, onde parte estão em uso, e isso força os outros a ficarem activos, mas sem fazer nada?

@tiagoaal não sabemos ainda isso... Isto é apenas especulação, vale o que vale. Eles podem aumentar a eficiência, e mesmo assim, a escalabilidade não chegar a esse ponto. Temos que esperar para ver. Mas em termos tecnológicos, definitivamente abre portas importantes para poderem tentar isso.
 
Os GPUs têm um front end que prepara e distribui o trabalho pelas unidades de shaders.
Isto pode ser feito em grupos de um certo tamanho. A nVidia chama a isto warps, por exemplo e usa um tamanho de 32. Ou seja, prepara 32 calculos para serem feitos e entrega o trabalho a 32 shaders cores.
Um fabricante de GPUs até pode fazer warps de apenas uma unidade. Isto significaria que iria garantir que todos os shaders estariam sempre a receber trabalho.
Mas isso implicava que tinha de ter mais unidades warp a preparar trabalho. Ou seja, mais transistores e mais consumo de energia.
Agrupando em grupos maiores, pode reduzir a quantidade de unidades a preparar warps.
Entre optimização pelos criadores dos jogos e pelas drivers, é possivél garantir que a maior parte dos warps são em grupos de 32. Mas isso nem sempre é possivél e por vezes resulta em shaders ficarem em idle.
Mas no caso da AMD, isto piora pois têm warps de 64. Se aparecer um grupo de warps de apenas 24, resulta em 40 shaders ficarem sem trabalho atribuido.
Como a nVidia domina no mercado PC, a maior parte dos Devs usam warps de 32. Por isso é que a optimização de drivers em GCN era muito mais importante.
Nas consolas domina a AMD e por isso creio que a maioria dos devs usam warps de 64. Ou pelo menos as ferramentas da MS e Sony tratam de compilar para warps de 64.
 
Então parece que vai mesmo ser desta vez que a AMD vai dar luta à Nvidia pela coroa. Já não era sem tempo!!! Pode não conseguir bater uma 3080ti, mas nem precisa para acabar com o milking da Nvidia.

Ou não, a equipa verde logo a seguir manda cá para fora a sua gama a 7nm e dá um soco nos vermelhos novamente...
 
Eu posso ter parecido o Roberto1973, mas estou muito longe de tal entusiasmo :D. Eu sei muito bem que o AMD hypetrain pode acabar todo espatifado outra vez. Mas acho que não sou só eu que anseia finalmente por alguma concorrência. Acho que mesmo os Nvidia fanboys querem um pouco de competição nem que seja para poderem comprar a 3080ti mais barata :biglaugh:. Mas já estou um bocadinho farto da Nvidia ter o 1º,2º,3º,4º... e os abusos que aí advêm.

Dito isto, não acho que a AMD possa ter o trono novamente, até porque a Nvidia não vai deixar, mas pode lutar, pelo menos espero eu.
 
Eu posso ter parecido o Roberto1973, mas estou muito longe de tal entusiasmo :D. Eu sei muito bem que o AMD hypetrain pode acabar todo espatifado outra vez. Mas acho que não sou só eu que anseia finalmente por alguma concorrência. Acho que mesmo os Nvidia fanboys querem um pouco de competição nem que seja para poderem comprar a 3080ti mais barata :biglaugh:. Mas já estou um bocadinho farto da Nvidia ter o 1º,2º,3º,4º... e os abusos que aí advêm.

Dito isto, não acho que a AMD possa ter o trono novamente, até porque a Nvidia não vai deixar, mas pode lutar, pelo menos espero eu.

Basta ter pelo menos no mercado a tempo e não ser quase um ano depois da nvidia ter lançado ja vai ser uma grande ajuda . Nvidia nao dormiu como a intel mas pode ficar perto nem que perca significamento , ultimamente a AMD promete x de da y mas pode ser que seja diferente desta vez.
Importante agora é AMD estar nos lançamentos a tempo e não meses a fios sem nada para combater face a Nvidia.
Ter concorrência fanboy ou não saímos todos a ganhar e com escolhas , não ter AMD como escolha ultimamente no mercado nos lançamentos é algo chato e sai mais caro para quem quer comprar gpu .
 
Última edição:
Uma coisa é certa, tanto Nvidia como AMD vão ter de se esmerar este ano. Com o streaming a ser cada vez mais uma realidade e as novas consolas a prometerem performances muito boas, os GPUs dedicados vão ter de lutar bem para merecer o nosso dinheiro.

Eu próprio ainda estou na dúvida se faço update (ainda estou com a guerreira 980Ti) ou se mando o PC dar uma curva e faço all-in nas novas consolas. Vai depender dos GPUs que apresentarem e a que preços.

Aos poucos tenho perdido cada vez mais interesse pelo mundo do PC, principalmente por achar que o mercado das gráficas está bastante mau.
 
X2 tou com o PC da assinatura e nem pensei em fazer upgrade ao que seja,pacientemente a ver o que vai sair tanto nas consolas como nos CPU/Gpu para Pc especialmente na performance e precos.
 
Neste momento estou com uma 5700 flashada para XT, e vejo pessoal à espera com RX 590 e pior e não entendo muito bem como jogam triple A. Faço 120FPS nos jogos quase todos, alguns não em ultra como é óbvio, mas de vez em quando leio "estou com a minha 7950 à espera e chega-me bem" e até fico na dúvida se sou eu que tenho um problema.

Fico feliz e triste por o RDNA2 ser um estrondo. Se fosse um pequeno upgrade deixava-me ficar, se for uma cena massiva tenho que trocar, primeiro porque sim (looney) depois porque se a diferença for grande nos próximos tempos lá vão os FPS ao charco.
 
Back
Topo