Gráfica AMD Vega II 7nm (Radeon VII, Vega II Pro Duo)

Video interessante. Quando a resolução é 1080p, a diferença é grande, mas diminui nas resoluções mais altas(parece mais próxima do que tinha visto em outras reviews).

Agora a gastar menos que uma GTX2080 vai contra todas as reviews que vi, em algumas chegava a gastar mais 90w. Será que os últimos drivers vêm com as voltagens otimizadas?

Quanto ao barulho... Seria razão para não comprar, detesto PC's ruidosos. Será que vamos ter algum cooler XPTO que resolva o problema?
 
Agora a gastar menos que uma GTX2080 vai contra todas as reviews que vi, em algumas chegava a gastar mais 90w. Será que os últimos drivers vêm com as voltagens otimizadas?

Atenção que ele ali só mostra valores máximos (pode ler-se 'Hi', para Highest, no ecrã do wattímetro) e não médios, que são os que interessam para o consumo energético num período alargado (minutos, horas). O valor máximo só é relevante para escolher a potência da fonte de alimentação.
 
Curiosamente as Vegas que costumam ter Highest mais altos...

Se calhar enganou-se. Se calhar os picos são mais elevados e mais curtos, e o "pico médio" dado por aquele wattímetro acaba por ser menor. Aquele modelo de wattímetro também não é assim tão confiável, custa menos de 10€ no eBay (tenho 3 iguais), mas para o que custa, a precisão que tem e tendo em conta que indica factor de potência, duvido que se encontre melhor e de marca conceituada por menos de algumas dezenas de euros.

O ideal seria ter um gráfico potência vs tempo, com uma discretização suficiente (talvez um ponto por cada 10ms, i.e., 100 pontos por segundo).
 
John Bridgman:

For what it's worth we are working on bringing some of the ROCm stack to Windows. Won't be the same as the Linux implementation and not intended for scaling up to data center use but should be able to take advantage of ML framework and other ports to ROCm up to workstation level. Our thinking was that full equivalence for Windows was probably overkill in this case, but zero support was not enough either.

In the "lessons learned" department we started the HSA effort with a strong "Windows-first" approach but realized that Windows was not able to pick up core OS features quickly enough for us to use the same solution on both OSes. The Linux HSA implementation evolved into ROCm, and the Windows HSA implementation evolved into some user queue features to make graphics and workstation OpenCL perform better... but now we have a chance to circle back and make some of the Linux work available on Windows.
https://www.phoronix.com/forums/for...ffe2-multi-gpu-training?p=1086666#post1086666

:rofl::rofl::rofl:

Radeon ROCm 2.2 Released With Vega 20 Optimization, Caffe2 Multi-GPU Training
https://www.phoronix.com/scan.php?page=news_item&px=Radeon-ROCm-2.2-Released
 
Se calhar enganou-se. Se calhar os picos são mais elevados e mais curtos, e o "pico médio" dado por aquele wattímetro acaba por ser menor. Aquele modelo de wattímetro também não é assim tão confiável, custa menos de 10€ no eBay (tenho 3 iguais), mas para o que custa, a precisão que tem e tendo em conta que indica factor de potência, duvido que se encontre melhor e de marca conceituada por menos de algumas dezenas de euros.

O ideal seria ter um gráfico potência vs tempo, com uma discretização suficiente (talvez um ponto por cada 10ms, i.e., 100 pontos por segundo).

Sim, algo com precisão e que seja capaz de criar logs /telemtria (e ligar á um computador) estamos a falar de um equipamento que custa dezenas ou centenas de euros...

Pior eu que no Brasil wattimetros simplesmente não existe, dado que o Brasil usa padrão de tomada exclusivo e ninguém fabrica isso. Só usando uma UPS para poder ver consumos.
 
E provavel que aposte, principalmente para as placas com 8g de hbm visto que as primeiras Vegas sofrem de não ter banda suficiente e por isso tiveram de mudar para 16g. (Acho que estou correcto). As navys devem vir com gddr6 e as seguintes "Vega" hbm.
 
Yup, isso pode ir a 810 GB/S para placas com 2 stacks, o dobro da Vega 56 default. Deve resolver o problema da BW e ao mesmo tempo habilitar placas de 16 GB com apenas 4 dies por stack ou manter em 8 GB com 2 dies, abaixando custo.

Mas provavelmente deve vir primeiro em aplicações para AI. Um GA100 com 64 GB e 1.6 TB/S
 
Pelos vistos ou o jogo consegue explorar todo o potencial das AMD ou as nVidia a coisa está mal optimizada.

É que temos a VII a encarar a 2080 ti, a V64 entre 1080 ti e 2080, a V56 a encarar a 2070 e a deixar as GP104 1070s e 1080s para trás e até a RX590 ultrapassa a 1660 ti, 1070 e aproxima-se da 2060! :wow:

Bom, eu não consigo este power tudo, a 1080p custom settings (talvez algo entre medium e high) tenho 90 fps em DX11 e 120 fps em DX12, mas pronto o gajo usou um 9900k.

Não sei se correram em DX12 ou 11, não está referenciado.
 
Última edição:
O jogo deve estar muito mal optimizado para placas Nvidia ou então é problema nos drivers.
Vês por exemplo também a simples RX 580 a dar porrada à Gtx 1070 que é uma gama acima. E a RX 570 a dar porrada à Gtx 1060 e 1660.
 
O jogo deve estar muito mal optimizado para placas Nvidia ou então é problema nos drivers.
Vês por exemplo também a simples RX 580 a dar porrada à Gtx 1070 que é uma gama acima. E a RX 570 a dar porrada à Gtx 1060 e 1660.

N concordo. O jogo para a qualidade de gráficos que tem está muito bem optimizado, n esquecer que as Vega tem hbcc que permite ir além do limite dos 8g vram
 
N concordo. O jogo para a qualidade de gráficos que tem está muito bem optimizado, n esquecer que as Vega tem hbcc que permite ir além do limite dos 8g vram
Estás a dizer-me que é normal a RX 570 bater a 1060 e a RX 580 bater a Gtx 1070?
Ou que é normal a Vega 64 bater a Gtx 1080 Ti e a RTX 2080?
 
O jogo deve estar muito mal optimizado para placas Nvidia ou então é problema nos drivers.
Vês por exemplo também a simples RX 580 a dar porrada à Gtx 1070 que é uma gama acima. E a RX 570 a dar porrada à Gtx 1060 e 1660.

Pois, mas quando olhas as specs no papel que é aquilo que critico estes anos todos que as AMD vem com flops e larguras de bandas enormes e depois ficam bem atrás.

Claro que uma RX 580, embora tenha a mesma BW de memórias e nao fica muito atrás em flops mesmo assim não devia bater uma 1070. Mas será que a nVidia quer optimizar gens antigas para jogos recentes?
 
Back
Topo