Gráfica Nvidia drivers overhead

se ainda a conseguisse vender a preço interessante, e arranja-se no mercado uma Z370 ou 390 a bom preço, ainda trocava... agora assim.. não sei :(
 
Podes tentar fazer OC por BLCK, mas isto é muito limitado. E também pode causar erros em vários componentes, se for longe demais.
Por exemplo, com o 8400, se aguentar um BLCK 103, as memórias ficam a 2740 MT/s e o CPU a 4120Mhz.
 
não tenho acesso a mexer no clock delas :( está bloqueao a 100MHz.
Tenho é o cpu sempre no prego a 4.3 all core em jogos e afins, e a unica opção que tenho disponivel é mesmo jogar com os timings destas, dai ter baixado a CL12 (ou 13, só vendo mesmo).
A partir daqui, só mesmo partindo para uma Z390. Infelizmente por alto, fui ver e a oferta actualmente já não começa a ser muita.. e uma board minimamente decente, anda nos 150€ e os stocks é o caos também.. não me parece que me vá meter nisso :(
Vejo isto é como uma boa opção para quem quer um 9400 ou algo similar, para jogos e sem se chatear muito.
 
Este efeito do overhead manifesta-se essencialmente nos novos jogos baseados em DX12, correcto? nos baseados no DX11 o efeito não tem a mesma ordem de grandeza, ou percebi mal?
 
acontece essencialmente em DX12 porque são os jogos que normalmente ja usam 16 threads.... o watchdogs é um dos melhores exemplos disso porque tems as threads todas bastante puxadas.... os jogos DX11 muitos deles usavam nem metade das threads disponiveis... muitos desses jogos ainda são do tempo que os cpus intel eram reis incontestados, e a maioria deles tinham apenas 4 cores....
 
Boas

"A treta do overhead de driver... Calma lá, Hardware Unboxed... - PC Facts"


TLDW; As fabricantes (AMD, Nvidia) tem menos controle que os desenvolvedores na optimização de jogos usando API's de baixo Nível (DX12 e Vulkan) e a AMD, por ser uma plataforma mais aberta que a Nvidia, possibilita um acesso mais facilitado dos desenvolvedores aos seus recursos e especificações. Na opinião dele, a culpa é dos desenvolvedores, que deviam trabalhar com a Nvidia nas devidas otimizações, e não da Nvidia, pois esta não é obrigada a abrir o seu código como a AMD faz.

De referir que ele não está a pôr em causa a metodologia ou resultados do HU. :)

Que video tão mau. Nota-se bem que nesta questão, ele sabe pouco do assunto.
Esta questão não tem nada haver com o desenvolvimento e optimização dos jogos.

O problema é que os GPUs da nVidia desde as kepler têm um frontend muito mais simples, com um scheduler feito principalmente por software.
Como é feito por software, este trabalho cai sobre o CPU. No caso das arquitecturas da AMD mais recentes, ou da Fermi da nVidia, este trabalho era feito por hardware, no GPU.
E isto retirava trabalho ao CPU. Mas tem o problema de gastar mais espaço no chip e consumir mais energia.
Basicamente, a nVidia tem uma worker thread nas suas drivers, que organiza a distribuição do trabalho pelas unidades do GPU, mas que gasta recursos do CPU.
Isto resulta numa utilização do CPU mais elevada, cerca de mais 20 a 30%.
Em CPUs mais potentes, isto não é problema, pois existe margem que chegue.
Mas em CPUs mais fracos e em jogos que puxam mais pelo CPU, podemos ter situações onde esta utilização extra da driver da nVidia, retira recursos ao jogo.

Dizer que isto é por falta de optimização dos criadores de jogos, para os GPUS da nVidia é um disparate completo.
A nVidia sempre teve excelentes relações com os criadores de jogos. Sempre foi e continua a ser um dos pontos mais fortes da empresa.
 
Dizer que isto é por falta de optimização dos criadores de jogos, para os GPUS da nVidia é um disparate completo.
A nVidia sempre teve excelentes relações com os criadores de jogos. Sempre foi e continua a ser um dos pontos mais fortes da empresa.

Dizer que isto é por falta de optimização dos criadores de jogos, para os GPUS da nVidia é um disparate completo.
A nVidia sempre teve excelentes relações com os criadores de jogos. Sempre foi e continua a ser um dos pontos mais fortes da empresa.
Estás a passar ao lado do facto dele ter disto isto especificamente em relação aos jogos desenvolvidos para DX12, passando-se situação diversa nos jogos DX11. Creio que o que ele diz faz sentido nesta perspectiva.
 
Estás a passar ao lado do facto dele ter disto isto especificamente em relação aos jogos desenvolvidos para DX12, passando-se situação diversa nos jogos DX11. Creio que o que ele diz faz sentido nesta perspectiva.

A questão que temos neste momento é mesmo com o DX12.
Com o DX11, não tínhamos threads a serem tão bem distribuídas pelos núcleos do CPU.
Por isso, sobrava sempre algum para correr a thread da driver da nVidia.
Mas agora, o DX12 é a norma. E os jogos puxam muito mais pelo CPU E vão puxar ainda mais, pois as consolas agora têm um CPU decente.
Não é uma questão de optimizar jogos pelos criadores. Enquanto a nVidia tiver um scheduler por software, vamos ter sempre uma thread das drivers da nVidia a cair sobre o CPU.

Pode ser que a nVidia desenterre o frontend da Fermi e o actualize para as tecnologias actuais.
 
essa da falta de optimização dos jogos é treta... claro que pode haver alguns casos que isso seja verdade, mas isso são casos raros....comparando com a AMD a nvidia sempre teve uma relação mais proxima com os estudios de jogos...como ja foi dito é mesmo um dos pontos fortes da nvidia
 
Back
Topo