Dyk
I quit My Job for Folding
Não sei se vi bem mas parece que colocaram anilhas na parte de trás do suporte do cooler para fazer mais pressão
Agora a gastar menos que uma GTX2080 vai contra todas as reviews que vi, em algumas chegava a gastar mais 90w. Será que os últimos drivers vêm com as voltagens otimizadas?
Curiosamente as Vegas que costumam ter Highest mais altos...
https://www.phoronix.com/forums/for...ffe2-multi-gpu-training?p=1086666#post1086666For what it's worth we are working on bringing some of the ROCm stack to Windows. Won't be the same as the Linux implementation and not intended for scaling up to data center use but should be able to take advantage of ML framework and other ports to ROCm up to workstation level. Our thinking was that full equivalence for Windows was probably overkill in this case, but zero support was not enough either.
In the "lessons learned" department we started the HSA effort with a strong "Windows-first" approach but realized that Windows was not able to pick up core OS features quickly enough for us to use the same solution on both OSes. The Linux HSA implementation evolved into ROCm, and the Windows HSA implementation evolved into some user queue features to make graphics and workstation OpenCL perform better... but now we have a chance to circle back and make some of the Linux work available on Windows.
Se calhar enganou-se. Se calhar os picos são mais elevados e mais curtos, e o "pico médio" dado por aquele wattímetro acaba por ser menor. Aquele modelo de wattímetro também não é assim tão confiável, custa menos de 10€ no eBay (tenho 3 iguais), mas para o que custa, a precisão que tem e tendo em conta que indica factor de potência, duvido que se encontre melhor e de marca conceituada por menos de algumas dezenas de euros.
O ideal seria ter um gráfico potência vs tempo, com uma discretização suficiente (talvez um ponto por cada 10ms, i.e., 100 pontos por segundo).
(...) dado que o Brasil usa padrão de tomada exclusivo e ninguém fabrica isso. (...)
O jogo deve estar muito mal optimizado para placas Nvidia ou então é problema nos drivers.
Vês por exemplo também a simples RX 580 a dar porrada à Gtx 1070 que é uma gama acima. E a RX 570 a dar porrada à Gtx 1060 e 1660.
Estás a dizer-me que é normal a RX 570 bater a 1060 e a RX 580 bater a Gtx 1070?N concordo. O jogo para a qualidade de gráficos que tem está muito bem optimizado, n esquecer que as Vega tem hbcc que permite ir além do limite dos 8g vram
O jogo deve estar muito mal optimizado para placas Nvidia ou então é problema nos drivers.
Vês por exemplo também a simples RX 580 a dar porrada à Gtx 1070 que é uma gama acima. E a RX 570 a dar porrada à Gtx 1060 e 1660.
Não é normal mas se o motor de jogo limitar os FPS quando a vram está ao máximo esta pode ser a razão. Rx 570 existem versões 8g.Estás a dizer-me que é normal a RX 570 bater a 1060 e a RX 580 bater a Gtx 1070?
Ou que é normal a Vega 64 bater a Gtx 1080 Ti e a RTX 2080?