Thread nvidia 9600 GT [OC & dúvidas]

JPgod

Moderador
Staff
Bem, para não entupir o tópico da 9600 GT no Hardware Novidades, abro este ;)

Para começar, instalei isto e não consigo utilizar o purevideo HD :mad: Se activar ao abrir um filme HD-DVD, o sistema reinicia!
 
174.16.

Já tentaste ver algum filme em H.264, VC-1 e etc?

Sobre o bus PCI-E, subindo o bus PCI-e também sobe a frequencia do core... curioso, de facto, já testo isto.

O defaut dela é 675 mhz
 
174.16.

Já tentaste ver algum filme em H.264, VC-1 e etc?

Sobre o bus PCI-E, subindo o bus PCI-e também sobe a frequencia do core... curioso, de facto, já testo isto.

O defaut dela é 675 mhz

Por mais incrível que te pareça não vejo filmes no PC :D

Estou a considerar seriamente comprar uma 9600GT, nem que seja só para brincar!

Repara que o clock interno com o PCI-Express a 100 é de 25mhz, com o PCI-Express a 110mhz, o clock interno é de 27,5mhz, ou seja subiu 10%, tal como a frequência do PCI-Express.

Para determinares o multiplicador do clock interno, divides o clock final que o driver te dá por 25mhz, por exemplo, no teu caso:

Com o PCI-Express a 100-> 675:25= 27;

Com o PCI-Express a 110-> GPUfreq=(110:4)x27
-> GPUfreq = 27,5x27
-> GPUfreq = 742,5mhz ~743mhz

Ou seja, se a 100mhz PCI-Express e a 675mhzCore tens multi x27, com 110mhz PCI-Express e 675mhz definidos na BIOS (default) tens 743mhz REAIS.

Quando fazes OC a uma placa, aumentas sempre o multi, uma vez que o clock generator, habitualmente, é sempre 25mhz, mas como nestas 9600GT está dependente do PCI-Express, quando o PCI-Express sobe, o Multi mantém-se mas o core clock sobe, o que é FANTÁSTICO!

Mais fácil impossível!!!!
 
Última edição:
ou seja, é como subir o FSB no cpu :007:

bem, o rivatuner continua dead... n percebo o porque, com a 8800 GT foi só instalar a versão mais recente e voilá!
 
Já consegui activar o rivatuner :D

To find the maximum overclock of our card we used a combination of Rivatuner, ATITool and our benchmarking suite. In order to enable overclocking of the G94 cards using Rivatuner, you just edit rivatuner.cfg and add the device id in our case "0622h" to the G92 section.

@ http://bios.techpowerup.com/printreview.php?id=/Zotac/GeForce_9600_GT_Amp_Edition

Se bem que não detecta o shader clock, CPU load e afins

E o core clock reportado é... 729 mhz o.O

(não modifiquei o bus PCI-E ainda!!!)
Untitled-1.jpg
 
Última edição:
Sendo assim, temos bug no rivatuner, passo a explicar:

os gajos da techpowerup dizem que apenas encontraram um crystal clock generator (o das memórias) no pcb das 9600GT
crystal_small.jpg


Então vamos fazer o seguinte: em vez utilizarmos o PCI-Express:4 para calcularmos o clock interno, vamos substituí-lo por 27mhz;

No teu caso, destr0yer: 675:25=27; 27x27mhz (clock generator das memórias)= 729.

Eles lá também dizem que o rivatuner hardware monitoring vai ler directamente ao hardware, logo é lógico que ele usa o multi do GPU x o único crystal clock generator que existe, por isso é que está os tais 729, ou seja, independentemente do PCI-Express frequency, o rivatuner usa o multi do gpu x 27 sempre ;)

destroyer, faz-me um favor: deixa o PCI-Express a 100, aumenta o Core para 700mhz e verifica se no rivatuner isso lê 756mhz. Se isso ler os 756mhz, é porque o rivatuner tem bug.

No entanto, isto não inviabiliza a teoria do clock interno pelo pci-express, apenas não há app para ler isso em condições :002:
 
Última edição:
Originally Posted by wittekakker disse:
I guess it's all true guys. I have been running 9600GT's clocked at 720MHz out of the box, but the card never remained stable in my tests. I got in another sample, same happened. Now, due to rushing things, I have left my sources wondering what the problem could be, but now it all seems to come down to the simple fact where my PCIe bus speed could have been the problem all the time. I have it overclocked to 110MHz all the time which makes the GPU run at 780MHz instead of 720MHz, downclocking the GPU solved it so I guess PCIe speed did affect card clocks. Makes sense, I really don't know why else my three samples couldn't clock further then 710MHz with 110MHz PCIe speed.


I have an Intel X38 chipset. Those wondering if it will work on any chipset, please spend some time reading the article. It counts only 4 pages and you will not have to spend time posting 10 times here on XS in order to find out. It is based on PCIe speed, nothing to due with Linkboost instead that Linkboost will now overclock your VGA GPU too further increasing the total system performance.


destroyer estas a usar o Rivatuner 2.06 and GPU-Z 0.1.5 ??


cumps
 
Última edição:
Sim, puxei para 100 mhz e foi a 756...

Subi o PCI-E a 110 e ficou igual, 729 mhz...

Sim, claro que fica igual, uma vez que o multiplicador manteve-se (675:25=27), mas o clock interno subiu de 25mhz para 27,5mhz, portanto neste momento, se houvesse uma app que lesse correctamente o clock final, baseado na frequência do PCI-Express:4, dir-te-ia que o GPU está a funcionar a 742,5mhz (27x27,5)

Isso continou a 729mhz porque o rivatuner continua a ler pelos 27mhz fixos do clock generator da memória :P

Estás a perceber, destr0yer????

Olha, faz-me um enorme favor: corre o Fill Rate Multi-Texturing do 3d mark 2006 agora com o pci-express a 110, e o GPU a 675mhz (743mhz reais); depois faz reboot, mete o PCI-Express a 100, corre o teste outra vez e vê a diferença. Depois corre com o GPU a 743mhz mas o PCI-Express a 100 à mesma, para ver a diferença para o teste com 743mhz reais a 110 ;)

Percebeste?
 
Última edição:
ok, aguarde então...

Já agora, 27*27,5 = 742 :007:

não sabes de ninguem que tenha HD-DVD e afins e esta gráfica?

é estranho estes crashes com o purevideo HD ligado >(

EDIT:

5890 (Single)
17948 (Multi)
 
Última edição:
ok, aguarde então...

Já agora, 27*27,5 = 742 :007:

não sabes de ninguem que tenha HD-DVD e afins e esta gráfica?

é estranho estes crashes com o purevideo HD ligado >(

EDIT:

5890 (Single)
17948 (Multi)

Só o Multi-texturing, SFF ;)

Olha vamos fazer assim para ser muito mais simples:

PCI-Express=100mhz
1-Resultados a 675mhz GPU: 16349
2-Resultados a 743mhz GPU: 18284

PCI-Express=110mhz

3-Resultados a 675mhz GPU: 17948

Se toda esta teoria estiver certa, os resultados 2 e 3 serão iguais ou muito próximos.

PS: Quanto aos crashes não te posso ajudar, mas deixa lá isso de lado agora, a gente quer é ver se isto resulta ou não :002:
 
Última edição pelo moderador:
ora pois:

17948 / 16349= 109,7%, ou seja, bate com os 10% de aumento 8|

Pah, vejo isso como uma vantágem, é um overclock a placa "por hardware" :002: É só subir o PCI-E clock e podes ter OC pro dia-a-dia 100% independente dos drivers ;)

Já com o PCI-E a 100 mhz e subindo para 743, deu 18284!

Será que apenas sobe o core clock, mantendo o shader clock inalterado?
 
Última edição:
ora pois:

17948 / 16349= 109,7%, ou seja, bate com os 10% de aumento 8|

Pah, vejo isso como uma vantágem, é um overclock a placa "por hardware" :002: É só subir o PCI-E clock e podes ter OC pro dia-a-dia 100% independente dos drivers ;)

E o melhor é que podes brincar com os multis baixando os clocks da gráfica, isto é, baixas 25mhz pelos drivers, baixas um multi certinho!

Agora é esperar por uma app que calcule a frequência final e correcta :P

Edit: Não queres correr um 3dmark completo a 100 e outro a 110 para ver a diferença, em marks :P
 
Última edição:
entao sempre se confirma o OC consoante o PCi-E

Lohka entao as 9600Gt sempre andam nos +800Mhz á mto tempo sem o pessoal saber :D


ainda te estavas a rir disto hehehehe


cumps
 
Quem tenha uma placa destas para brincar veja lá qual o máxima frequência de pci-ex a que bencham :)
E o max total disso sffv ;)
Feature engraçada a do pci-ex nestas vga's :D
 
Última edição:
Estas 9600, vieram uma caixinha de supresas. Boa aposta por parte da nvidia.

Tenham atenção a elevados pci-ex, pois os discos sofrem com isso.

cumpzz
 
os discos sofrem 8|

Então, não vou abusar disto :002:

Será este o SEGREDO da performance tão boa destas placas (andando perto das HD 3870 e não muito longe da 8800 GT, apesar de ser 64 vs 112 sp)
 
Back
Topo