Comparativo de Eficiência: G70 vs R520

SilveRRIng

Power Member
Este é um teste em que se pretende testar as duas placas com as especificações iguais. A ideia é tentar tirar algumas conclusões relativamente à eficiência dos pipelines e shaders de cada uma.

Na GTX desactivou-se 8 pipelines e procedeu-se ao OC para 450Mhz no GPU.

Na X1800 fez-se o underclock de GPU e memória para 450/1000, respectivamente.

doom3.jpg



css.jpg


Conclusion

Overall we would have to say that in the tests which really matter today the G70 is the most efficient design and therefore performance leader when both architectures are configured similarly. In more "future proofed" tests the balance swings again and when HDR is used more in games we may well see the R520 performing better overall when the same testing methods are applied.

Of course this is all theoretical as cards in the configurations tested don’t exist in retail channels however it’s an interesting aspect to take into consideration when choosing which card you wish to purchase.


É mais do que óbvio que esta comparação apenas serve dum ponto de vista académico e não permite tirar conclusões concretas. Ambas as arquitecturas foram desenhadas para funcionar com determinados specs. Seguramente as ATI's teriam outras caracteristicas se fossem pensadas para funcionar a 450/1000, penso eu.

Pessoalmente eu não chegaria ao ponto da ultima frase da conclusão da review, planear a aquisição da placa gráfica em função deste teste. A performance em default e suporte de tecnologias é que define a compra, não uma hipotética eficiência. Mas enfim, não deixa de ser um teste engraçado.

Fonte
 
Muito bom esse teste. Realmente é um daqueles a guardar, no entanto penso que deveriam ter aproveitado para fazer mais alguns testes a nível de jogos, como por exemplo o Farcry (que é um dos jogos mais imparciais), Half-Life2 (já que colocaram o Doom3 que toda a gente sabe q é Nvidia friendly pq não um ATI friendly?), e um jogo que fosse exigente a nível dos shaders.

No entanto uma review destas é muito interessante.
 
Sumerset disse:
Muito bom esse teste. Realmente é um daqueles a guardar, no entanto penso que deveriam ter aproveitado para fazer mais alguns testes a nível de jogos, como por exemplo o Farcry (que é um dos jogos mais imparciais), Half-Life2 (já que colocaram o Doom3 que toda a gente sabe q é Nvidia friendly pq não um ATI friendly?), e um jogo que fosse exigente a nível dos shaders.

No entanto uma review destas é muito interessante.

O CounterStrike: Source não é ATI-friendly ?
 
É um teste para vermos o k aconteceria s ambas tivessesm os mesmos clock's, interessante.

Mas sabemos k tal não acontece, que cada fabricante rege-se com as armas k tem, uns mais pipes, outros mais clock's, agora ao k parece até vão ter a mesma memória...a ver vamos o k vai sair daki...

è bom existir agitação desta maneira, no final d contas, kem ganha é o consumidor! :)
 
:cwm27:
bah...que teste tão ridículo...! :o

Já agora vamos comprar, um p4 com um A64 ambos com o mesmo clock e as mesmas instruções... :rolleyes:

Volta jardel...estás perdoado! :x2:
 
RuFuS disse:
:cwm27:
bah...que teste tão ridículo...! :o

Já agora vamos comprar, um p4 com um A64 ambos com o mesmo clock e as mesmas instruções... :rolleyes:

Volta jardel...estás perdoado! :x2:

É um mero teste de eficiência dos GPU's.
Se não entendes isso...
 
Ja com as 6800 e as x800 via-se que a arquitectura na nvidia era mais eficaz e com melhor IPC.
Pelos vistos a moda continua.

Com estes testes ve-se que um overclock numa G70 tem mais efeito que numa R520. Ou seja, um overclock (por exemplo) de 50 Mhz deverá dar um aumento de desempenho maior na G70 que na R520
 
Já se desconfiava que a G70 era mais "eficiente" que a R520.
Ora isso não é bom nem mau.
Tudo depende que como a nVidia e a ATI conseguem manter a relação Mhz e pipes entre as suas placas. Só dá mais trabalho à malta a analisar as placas.
 
é claro que à sempre outros factores em conta, mas de uma maneira geral é obvio que 50Mhz tem mais efeito num processador de 300MHz que num de 600MHz.
a questão é o max oc que consegues num GPU e no outro.

edit: já agora, eu acho que usar este teste para se dizer que uma placa tem mais eficiencia que outro um pouco exagerado, é um teste interessante mas não acho conclusivo. isto parece um pouco como comparar 2 carros, em que um deles é um V12 que se desliga 2 cilindros mas que se aumente a injeção e o outro é um V10 em que se diminui a injeção.

a bit odd.
 
Última edição:
Realmente.. qual o objectivo dum teste destes? é como um user ja referiu, comparar um A64 com um P4. Se falassem em eficiencia em termos de frames por watt ou frames por euro ainda se percebe, agora assim, que é que o clock de uma tem a ver com o clock da outra? :S
 
eu penso que o conceito deste teste é a tal historia do bang for the buck ou seja fico demonstrado que a 7800 gtx é realmente a placa que detem a arquitectura mais eficaz logo com melhor performance per watt ... (se quiserem meter nestes termos) qq dia o jobs vai fornecer a malta com macs com intel e 7800 gtx para ter o conjunto "performance per watt"
 
RuFuS disse:
:cwm27:
bah...que teste tão ridículo...! :o

Já agora vamos comprar, um p4 com um A64 ambos com o mesmo clock e as mesmas instruções... :rolleyes:

Volta jardel...estás perdoado! :x2:


Bingo....bora por um Diesel e um Gasolina as mesmas rpms pra ver qual tem mais potencia...

Pa...ya a G70 é mais eficiente...mas ate ai ja toda a gente tinha ido...agora isso vale pouco, os AXP sp foram mais eficientes q os P4 e no entanto os P4C davam na boca aos AXP...
 
O DJ_PAPA bem dizia k os mghz não influenciavam mto, e que a nova arquitatura da ATI é que tinha de ser mto boa para com 16 pipes ter essa performance, a vantagem da ATi tá mm é nos elevados mghz k tem.

Puseram ambas as placas com o mm numero de pipes e a funcionar com os mm mghz e pumba, a nvidia dá mais frames, logo tem um nucleo mais poderoso que o da ATI.


Agora quando sair a G75, a Nvidia vai poder por a 7800GTX, ou seja a nova 7900, já com os mghz elevados tal como a ATI, depois aquilo até vai dar lume :D
 
Morpheus disse:
eu penso que o conceito deste teste é a tal historia do bang for the buck ou seja fico demonstrado que a 7800 gtx é realmente a placa que detem a arquitectura mais eficaz logo com melhor performance per watt ... (se quiserem meter nestes termos) qq dia o jobs vai fornecer a malta com macs com intel e 7800 gtx para ter o conjunto "performance per watt"
Intel.. performance per watt? Como assim?

Só se estiveres a falar do pentium M..
 
Epá esta comparação é mesmo muito má! Então não é mais que sabido que uma das grandes vantagens de utilizar um fabrico mais pequeno (9 nm neste caso) permite escalar melhor em MHz? Por isso é que a ATI avançou para este processo de fabrico, mais yelds (bons ou não) por wafer e mais MHz!
Não quero tirar o mérito das placas da nVidia, mas eles não vendem placas com 700 MHz de core porque os cores a 11 nm não aguentam.
 
ToTTenTranz disse:
Intel.. performance per watt? Como assim?

Só se estiveres a falar do pentium M..

É o novo lema da Intel para os proximos processadores, substitutos do Pentium4.

Zealot, o teste serviu para determinar como em circunstancias iguais, qual das placas é mais eficaz.
Para quem tinha dúvidas, estão agora todas dissipadas.
A Nvidia portanto, só não tem a melhor placa no mercado porque não quer (se bem que ainda continuará a ser a melhor até ao natal, disponibilidade das X1800XT :))
 
Zealot disse:
Epá esta comparação é mesmo muito má! Então não é mais que sabido que uma das grandes vantagens de utilizar um fabrico mais pequeno (9 nm neste caso) permite escalar melhor em MHz? Por isso é que a ATI avançou para este processo de fabrico, mais yelds (bons ou não) por wafer e mais MHz!
Não quero tirar o mérito das placas da nVidia, mas eles não vendem placas com 700 MHz de core porque os cores a 11 nm não aguentam.

O que dizes não está errado, mas está incompleto.
O que leva as empresas a fazer o shrink é tirarem mais cores de um waffer, optimizando os custos de fabrico. Se com isso conseguirem aumentar a frequência de trabalho, tanto melhor.
Senão vê, do nv4x para o g70, mesmo com o shrink do processo de fabrico, não se viu aumento da frequência. O que mais influencia a capacidade de um core é mesmo a arquitectura. Exemplo disto é quando temos um P4 e um AMD com o mesmo processo de fabrico e vermos até onde cada um chega em frequência. Mas concerteza já sabias isso.

De uma forma simplista, a frequência de trabalho de um core depende da capacidade dos transistores que o compõem "abrirem e fecharem" em uníssono e com o ciclo bem definido (aberto é mesmo 0 e fechado é mesmo 1). A forma como estes estão dispostos é o maior factor a afectar esta capacidade.


Quanto a este teste, a ideia foi precisamente avaliar o IPC do GPU de cada gráfica. A ATI optou por uma solução mais à la Intel, arquitectura mais "clockante", processo mais pequeno possivel a ajudar na frequência máxima atingida. A nVidia é mais AMDista, frequência de trabalho mais baixa, alto rendimento por clock.

Curiosamente, até vejo algo paralelismo entre a nVidia e a AMD em mais pormenores. A AMD foi a primeira a avançar com o Dual Core (como deve de ser, não o remendo inteliano), a nVidia lançou o SLI (a ATI o Crossfire, para mim tb um remendo). A AMD foi a primeira a suportar as extensões 64bits, a nVidia os SM3.0 (os concorrentes primeiro disseram mal e depois seguiram atrás).
 
Back
Topo