Gráfica AMD RDNA2 (RX 6000 series)

@Ansatsu
Isso duvido muito. Seja a MS ou a AMD, já confirmaram várias vezes que aquilo é Navi2.
Aliás, nos slides de ontem vimos muita coisa diferente da Navi1. Aliás, as diferenças são tantas, que a AMD até podia dizer que é uma arquitectura completamente nova.
E não é apenas pelo ray tracing e ML. Muita coisa no pipeline de execução mudou.
 
@Ansatsu
Isso duvido muito. Seja a MS ou a AMD, já confirmaram várias vezes que aquilo é Navi2.
Aliás, nos slides de ontem vimos muita coisa diferente da Navi1. Aliás, as diferenças são tantas, que a AMD até podia dizer que é uma arquitectura completamente nova.
E não é apenas pelo ray tracing e ML. Muita coisa no pipeline de execução mudou.

Então pode ser o caso de a Navi2 ter o mesmo IPC, simplesmente passa a consumir menos.

Também pode ser o caso que estava a comparar com a Navi1, mas não tem logica pois nenhuma consola da Microsoft saiu com Navi1, logo não existe ponto de comparação para aplicar os 25%. A logica é dizer que o IPC da Series X é 25% superior ao da One X. Ou seja, tem o dobro dos TFlops e em cima disso tem mais 25% de IPC.
 
Malta, não se esqueçam que em GPUs o IPC não é tão linear como em CPUs (e mesmo em cpus a coisa complica quando metemos instruções avx ao barulho).

Um dos maiores bottlenecks do gcn1.0 era a unidade de geometria com tesselation. Esta deficiência há muito que deixou de existir. Em workloads de tesselation acredito que o aumento de eficiência de performance seja mais do dobro ou triplo.

No entanto há partes da arquitectura que é difícil espremer muito mais como, por exemplo, o acesso à memória. Pode ser melhorado um pouco a compressão de dados, aumento e reestruturação de caches, etc mas no final é difícil obter grandes ganhos percentuais nesta área.

No geral o ganho médio de IPC pode ser modesto mas haverá workloads específicos onde o IPC dispara.

Depois há o problema destas métricas demasiado generalistas. Por exemplo uma das maiores alterações de rdna é a utilização de VLIW menores que evitam partes dos CUs inutilizados com tanta regularidade devido a situações de branching distintos no processamento de shaders. Isto implica que nas situações em que branching distintos ocorrem em menor frequência rdna praticamente não oferece nenhum uplift de performance e dará um IPC praticamente igual. Mas assim que se introduz mais situações que tirem proveito de VLIW menores os CUs subitamente ganham outra vida e dão um IPC bem superior.

Resumindo: métricas de IPC são demasiado falaciosas pois metem métricas de performance de áreas bem distintas da arquitectura dentro no mesmo saco. É uma visão demasiado redutora e simplista para a complexidade dos GPUs.
 
Nós não temos o contexto daquela frase.
Tanto pode estar a falar da geração de consolas, como da geração de GPUs.

Torak, no video de hoje do Digital Foundry sobre a conferencia do Hot Chips, o Richard confirmou que estavam a falar em comparação à One X e não ao RDNA1.

Como tal, o IPC do RDNA2 deve ser idêntico ao do RDNA1, o que deve baixar é os consumos, que pode permitir clocks mais altos.
 
O Richard não é muito de confiança, em termos técnicos. Preferia uma confirmação de alguém mais competente.
Mas se ele estiver a reportar as coisas bem, então o RDNA2 apenas melhora em features. Não em performance per clock.
Isso acaba por explicar o porquê da PS5, no UE5, ter o desempenho parecido com uma RTX 2070 Max-Q.
Segundo um teste recente do Techspot, A RTX 2070Max-Q tem o desempenho equivalente a uma 1660Ti para desktop.

This means that each laptop GPU actually delivers performance of a desktop GPU several rungs below in the line-up. An RTX 2070 for laptops more closely aligns with a GTX 1660 Ti for desktops. The RTX 2080 Super Max-Q is in line with an RTX 2060. And so on.
 
O Richard não é muito de confiança, em termos técnicos. Preferia uma confirmação de alguém mais competente.

O Richard deve ter tido acesso à apresentação do Hot Chips, penso que é natural.

A dedução dele foi lógica e baseada no contexto. Mostraram esse slide a dizer que o IPC é 24% superior à last gen, e logo a seguir mostram outro slide com o comparativo da One X e Series X.
 
Sinceramente, preferia uma confirmação de alguém como o Ian Cutress.
O Richard quando fala de hardware, tem alturas em que falha bastante.
 
Sinceramente, preferia uma confirmação de alguém como o Ian Cutress.
O Richard quando fala de hardware, tem alturas em que falha bastante.

Mas aqui foi tendo em conta contexto e lógica, não tem muito a ver se percebe ou não de hardware.

Outro ponto é que num dos slides diz que o consumo vai ser mesmo da One, ou seja, 120 Watts se estiver a referir à original ou 180 Watts se for em relação à X.
 
Bem, 120W é pouco para um sistema destes.
Mas parece estranho que tenham colocado uma fonte de 315W, num sistema que gasta apenas 120W.
 
Pois, 180W já será mais expectável.
Ainda deixa margem para alguns picos de consumo e margem para se manter na linha de eficiência da fonte.
 
Pois, 180W já será mais expectável.
Ainda deixa margem para alguns picos de consumo e margem para se manter na linha de eficiência da fonte.

Seja como for, 180w para o sistema total, deve dar uns 120w só para o Gpu? Contas de merceeiro claro, tendo em conta que é um SoC com tudo lá dentro.

A 5700 XT com 9.8TF tem um TDP de 225W. Logo a melhoria seria substancial em termos de consumos.
 
esse rumor do coreteks não faz grande sentido. 8 e 16GB de VRAM indicam um bus de 256bit, assumindo que usam GDDR6, que é curto para competir no topo.
só se usarem hbm em ambas é que essas quantidades fazem sentido.
quanto ao nível de desempenho, espero que esteja tão perto da verdade quanto o do coprocessador nas ampere.
 
Estou convencido, ou deveria dizer esperançoso, que a flagship da AMD será algo com a performance entre a 3070 e 3080, com base na suposta 2080Ti killer que se tem falado. Isto são serviços mínimos, muito comparáveis ao que fizeram na geração anterior. Longe de ideal mas pelo menos traria competição num segmento alto. Deverá ser melhor nas gamas abaixo.
Depois disso fica a duvida sobre a dimensão/performance do suporte de Ray Tracing e se irão ter algo minimamente comparável ao DLSS.
Para já as coisas não estão muito fáceis para AMD, a "barra" está bem alta.
 
esse rumor do coreteks não faz grande sentido. 8 e 16GB de VRAM indicam um bus de 256bit, assumindo que usam GDDR6, que é curto para competir no topo.

Ou 512 bit, a não ser que me esteja a escapar algo.

Se a AMD tiver algo para apresentar de jeito, espero ouvir mais detalhes antes de dia 17, seja por "leaks" ou oficialmente.
 
512 Bit não aumenta bastante a complexidade e como tal, o preço?

Nem a Nvidia faz isso nas topo de gama que custam um balurdio.

Sim, iria aumentar a complexidade do PCB e iria aumentar os custos. Também é verdade, que dado esses custos, hoje em dia têm a alternativa HBM e por isso, o custo/performance de ter um bus 512 bit talvez não faça sentido.
Mas a AMD já teve no passado pelo menos uma placa em que o GPU tinha um bus 512 bit no acesso a memória e se as placas tiverem 8 e 16 GB de VRAM, podem ter 256 bit ou 512 no bus de acesso a GDDR, ou estar a usar HBM.
 
Back
Topo