Comparativo de Eficiência: G70 vs R520

SilveRRIng disse:
O que dizes não está errado, mas está incompleto.
O que leva as empresas a fazer o shrink é tirarem mais cores de um waffer, optimizando os custos de fabrico. Se com isso conseguirem aumentar a frequência de trabalho, tanto melhor.
Senão vê, do nv4x para o g70, mesmo com o shrink do processo de fabrico, não se viu aumento da frequência. O que mais influencia a capacidade de um core é mesmo a arquitectura. Exemplo disto é quando temos um P4 e um AMD com o mesmo processo de fabrico e vermos até onde cada um chega em frequência. Mas concerteza já sabias isso.

De uma forma simplista, a frequência de trabalho de um core depende da capacidade dos transistores que o compõem "abrirem e fecharem" em uníssono e com o ciclo bem definido (aberto é mesmo 0 e fechado é mesmo 1). A forma como estes estão dispostos é o maior factor a afectar esta capacidade.

Infelizmente não é assim tão linear.

Quando fazes um shrink simples de um core, tens de contar com mais defeitos criados pelo "current leakage", pois os "caminhos" ficam cada vez mais pequenos, mas os electrões não.
Foi isso que provocou o desastre P4-Prescott, e os fabricantes de GPU's não estão imunes aos mesmos problemas.

Se contarmos com isso, podem produzir-se potencialmente mais GPU's, mas é quase certo que a percentagem de cores a funcionar correctamente na "spec" pretendida também sofre um decréscimo.

Por isso, um bom processo 110nm, afinado ao longo de um ano (6600 GT) pode ser usado com sucesso mais tarde (GTX), mesmo que o número de transístores aumente exponencialmente.

Vimos isso na passagem da 5800 Ultra, para a 5950 Ultra, e para as 6800 Ultra/GT, ambas a 130nm, mas com power/TDP's bem diferentes.

Neste momento, os primeiros GPU's a 90nm da Nvidia estão à venda (61xx/Nforce C51), servindo o core mais simples para retirar impressões e extrapolar os resultados para a migração do resto da gama.

Por alguma razão a AMD adiou o lançamento dos A64 FX a 90nm.
O processo 130nm até aos FX-55 demonstrou enorme maturidade e o "time gap" serviu para afinar os 90nm com os cores Winchester/Venice, etc, até se chegar aos actuais FX-55 e FX-57 a 90nm.
 
3

eu concordo com a maior parte das coisas aqui ditas...

epá.. isto de diminuir o core clock da ATI não é uma boa opção, porque a ATI não enveredou pela efivciência do GPU mas sim pelo aumento dos clocks... portanto bem podem dizer que a Nvidia é mais eficiente, tá certo.. porque a ATI também nunca quiz isso, tão a perceber.. desenvolveu os 9nm precisamente para poder secundáriamente aumentar os clocks e tentar que 16 pipes dessam para combater os 24..

a Nvidia irá passar pelo mesmo.. vão ter que baixar para os 9nm e vamos ver se vão ter problemas ou não... eles foram muito conservadores ao lançarem a GTX em 11nm... jogaram pelo seguro.. provavelmente se a ATI tivesse lançado o R520 em 0.11nm não teria o atraso que teria.. e em vez de 16 pipes teriam os 24 pipes.. e a ATI teria na liderança sempre, com ou sem 7800GTX..

agora, quiseram antecipar-se e mais tarde ou mais cedo tinham que avançar para os 0.9nm... decidiram mais cedo, ao contrário da nvidia que decidiu mais tarde... vamos ver a longo prazo quem vai sair vitorioso.... á que pensar no futuro.. talvez a ATI venha a ter um 0.9nm mais maduro que a Nvidia em 2006 e domine o ano com o R580...

Têm que pensar nisso também.. fiquem e ponham as vossas opiniões
 
Performance conclusions

The most controversial product is the ATI RADEON X1600 XT. I've ambivalent impressions. On the one hand, it obviously fairs on the level with the GeForce 6600GT (sometimes a tad better), but that card is below $200 already, reaching the $150 mark. And the X1600 XT is offered at $200 or even $250 for a 256 MB modification. Too expensive. On the other hand, it's equipped with very expensive memory, operating at huge frequencies for a middle-end card - 1380 MHz. Besides, the 590 MHz core is not a cheap die. Is there a price reduction reserve for such cards? I doubt it. The product is too "tight" (the frequencies are squeezed to maximum). Besides, the architecture is misbalanced. We already wrote about it before. 12 shader pipelines and just 4 texture units. If the Canadian company hopes that all games will be similar to TR:AoD, which uses shaders and a couple of simple textures, where its products will be up to the mark, they are mistaken. Texture units have plenty of work to do! They shouldn't be slimmed down like this.

ATI RADEON X1800XT is a new flagship. Can we call it the king of 3D graphics? - No, we can't, I guess. You can clearly see that it shares the first place with the 7800GTX, considering the market is full with overclocked cards based on this model. But it's surely one of the leaders. The situation with the NV40/R420 repeats itself. Again we have two leaders and the choice comes down to your religion. Considering that both products, from ATI and from NVIDIA, fully support all new DirectX 9.0c features (somebody will definitely dislike the word "fully", being of the opinion that it's not quite the case with the Canadians, but according to Microsoft, they offer sterling support). NVIDIA is not doing perfectly either - as these two chips have different FP16 capacities, the chances are high that game developers should be careful with both of them). I hope the prices will not be initially raised too high, considering that the 7800GTX prices have already dropped significantly.

The ATI RADEON X1800XL is the younger brother of the flagship, which closes the High-End sector at the bottom. It obviously competes with the GeForce 7800GT in price, but its performance issues are controversial. So the choice will again come down to your sympathies (religion), under condition that the prices for the new product are not raised too high.

The ATI RADEON X1300 PRO is approximately on the level with the GeForce 6600, sometimes higher, sometimes lower... But again its characteristics are "tight": it is equipped with expensive DDR2 memory (have you ever seen 2.5ns memory on a video card for $100?). However, this product obviously doesn't qualify for $150, hence the controversial impressions.


On the whole I can say the following: though with problems, though not that brilliant, the new line has been finally launched and will soon hit the stores. Thus, we'll learn the real market prices, which will rate the products and determine popularity of the new cards. At least, there is hope.

http://www.digit-life.com/articles2/video/r520-part3.html
 
Sim, claro. De certa forma estava subentendido. O shrink é um investimento a médio prazo. No inicio, os problemas que referiste, impedem que haja ganhos instantâneos com a maior quantidade de cores que se retiram de um waffer, mas com a maturidade do processo chega-se lá.

São questões complexas, o simples shrink não garante maiores velocidades de relógio. É preciso que o binómio processo maduro / arquitectura escalonável funcione. É uma ciência exacta cheia de incertezas...
 
blastarr disse:
But it's surely one of the leaders. The situation with the NV40/R420 repeats itself

R420, que core é esse?


já agora voltando ao teste desta thread, a nvidia levou com uma penalização (16ppl), mas tb
com 1 bónus (aumento do clock), enquanto que a ati levou apenas com a penalização.
outra maneira de ver as coisas :cool:
 
JCFR disse:
R420, que core é esse?


já agora voltando ao teste desta thread, a nvidia levou com uma penalização (16ppl), mas tb
com 1 bónus (aumento do clock), enquanto que a ati levou apenas com a penalização.
outra maneira de ver as coisas :cool:

R420 = X800...:rolleyes:
 
pois é.
só comecei a acompanhar mais isto com este lançamento da ati e já nem me lembrava disso.
sabia da 7800 e tava curioso com o R520.
além disso é o que faz ler à pressa, senão teria percebido.
 
Eu axo este teste mesmo muito ridiculo, mas OK....

So tenho uma duvida:
A 7800GTX foi baixada 40mhz no clock em relaçao á X1800XT??? É que as 7800GTX aumentam 40mhz no clock quando uma aplicaçao 3D é lançada! E isto faria com que a testar os jogos a 7800GTX levasse até vantagens nos clocks!
 
DJ_PAPA disse:
Eu axo este teste mesmo muito ridiculo, mas OK....

So tenho uma duvida:
A 7800GTX foi baixada 40mhz no clock em relaçao á X1800XT??? É que as 7800GTX aumentam 40mhz no clock quando uma aplicaçao 3D é lançada! E isto faria com que a testar os jogos a 7800GTX levasse até vantagens nos clocks!

Está desvendado o segredo da eficácia da G70 em relação à R520.!!! :D
 
Raptor disse:
Está desvendado o segredo da eficácia da G70 em relação à R520.!!! :D

Então o desabilitar de 1/3 do chip na G70 é menos penalizador do que uma simples redução dos clocks da R520 ?

Enfim, há quem não queira aceitar a realidade.
 
blastarr disse:
Então o desabilitar de 1/3 do chip na G70 é menos penalizador do que uma simples redução dos clocks da R520 ?

Enfim, há quem não queira aceitar a realidade.
lol

O teste é todo ele muito ridiculo e até naquilo que se propoe a testar nao se sabe se estava em igualdade de circunstâncias. Nao sei até ponto 40mhz fazem mossa, mas a teoria do Nvidia=AMD e ATI=P4 iria ficar um pouco diluida visto as esta nova geraçao da ATI ser muito sensivel ao clock e poderia alterar um pouco os resultados.

Tb falta ver novas releases de drivers para a X1800. Os cat5.10 e o novo Fix no OpenGL ja começam a fazer mossa....
 
DJ_PAPA disse:
lol

O teste é todo ele muito ridiculo e até naquilo que se propoe a testar nao se sabe se estava em igualdade de circunstâncias. Nao sei até ponto 40mhz fazem mossa, mas a teoria do Nvidia=AMD e ATI=P4 iria ficar um pouco diluida visto as esta nova geraçao da ATI ser muito sensivel ao clock e poderia alterar um pouco os resultados.

Tb falta ver novas releases de drivers para a X1800. Os cat5.10 e o novo Fix no OpenGL ja começam a fazer mossa....


O teste é ridiculo porque? Porque a ATI ficou atrás neste teste? se ficasse à frente duvido mto que fosse ridiculo.


Este teste n teve intuito de ver qual a placa mais potente do mercado (ate porque seria a da nvidia, a 1800xt n está à venda) teve sim ver qual a arquitetura mais forte.

Para ver qual a arquitetura mais forte, só existe uma forma de ver isso, é por ambos a funcionar com os mm pipes e com os mm mghz.

Foi o que fizeram, reduziram 8 pipes na 7800GTX para ficar igual à ATI e reduziram os mghz da placa ATi para ficar igual à nvidia.

No fundo ficaram duas placas iguais, com o mm numero de pipes e os mm mghz, uma da nvidia e uma da ATI.


Depois testaram ambas as placas, e o resulatado foi que a nvidia ganha, tem uma arquitetura mto superior à da ATI.

Chamaste ridiculo ao teste porque simplesmeste n curtiste saber que a Nvidia afinal tinha uma arquitetura melhor, mas este teste foi util, para saber isso. Acho que toda a gente sabe que as placas n são feitas apenas da arquitetura mas de uma junção de varios factores e este teste foi feito apenas a um desses factores, a arquitetura.
 
Ja agora:
-Entao mete a nova Tool fix para o Doom3 e novos drivers para a X1800XT para um aumento de performance em geral.
-E parece que nao leste nada do que ta ai em cima. A 7800GTX se tiver só com os mesmos Mhz da X1800XT nao basta, pq ela aumenta 40mhz no clock quando entra num jogo. A 7800GTX teria que estar 40Mhz abaixo da X1800XT para se depois igualarem em Mhz ao abrir um jogo.

Agora mete novos drivers e mais 40Mhz na X1800XT e vais ver onde vai parar a teoria da eficiencia.....
 
Dj,

Custa-me a crer que a GTX, já depois de OC para 450Mhz ainda aguentasse mais outro OC e ficasse a funcionar estável a 490Mhz. É o que estás a dizer. A 490Mhz só algumas "extreme" de algumas marcas conseguem, penso eu.

Agora, nem o tool para o Doom3/OpenGL faz um milagres, nem 40 Mhz podem alterar algo que já se sabe à bastante tempo. Em efectividade, a nVidia é superior. Que é que isso lhe garante ou proporciona? Nada.
 
blastarr disse:
Então o desabilitar de 1/3 do chip na G70 é menos penalizador do que uma simples redução dos clocks da R520 ?

Enfim, há quem não queira aceitar a realidade.

...ou seja a ATI com menos 8 pipelines e com um simples aumento do clock consegue a mesma performance ou mais que a G70 (que tem mais 8ppl). afinal qual a melhor arquitectura?
 
JCFR disse:
...ou seja a ATI com menos 8 pipelines e com um simples aumento do clock consegue a mesma performance ou mais que a G70 (que tem mais 8ppl). afinal qual a melhor arquitectura?

Pá, eu já disse aqui não sei quantas vezes que os pipelines não são comparáveis entre as duas arquitecturas.
Se fossem, como explicas os facto da G70 ter 24 pipelines e 302 milhões de transístores, contra apenas 16 pipelines, mas 330 milhões de transístores da R520 ?

Com os 8 pipes desactivados, a G70 passa a ter mais ou menos o mesmo nº de transístores que a 6800 Ultra/GT (222 milhões), ao passo que a R520 desce nos clocks, mas mantém aínda assim todos os 330 milhões activos...
 
se descendo 150MHz na x1800 ela fica pior que uma pseudo 6800ultra, e que com esses 150 MHz a mais já fica igual ou melhor que a GTX a conclusão a que chego é que os clocks são mais penalizadores para a ati que a perda dos 8 ppl na gtx.

peace.
 
com o rivatuner consegue se monitorizar e fazer logs dos clocks 2d/3d dessas graficas quando correm aplicações 3d e custa me a acreditar que os chaps do driverheaven não tenham verificado isso ...

eu acho o artigo interessante até porque desde que se fala no r520 que ia ter 32 pipes. depois já era 24 , mas como não estava a ser viavel tiveram que redesenhar o r520 para 16 pipes. , é interessante ver a relação performance com os clocks e pipes. em ambos os gpus mas não é isso que me vai fazer escolher uma grafica ...

a eficiencia de um gpu ve-se no seu performance/watt e não no performance/(clocks/pipelines) ....


ps: na experiencia que tenho a overclockar nv40 depois de overclockar só vi descidas para clocks default 3d e NUNCA subidas dos clocks ja overclockados
 
Última edição:
blastarr disse:
Pá, eu já disse aqui não sei quantas vezes que os pipelines não são comparáveis entre as duas arquitecturas.
Se fossem, como explicas os facto da G70 ter 24 pipelines e 302 milhões de transístores, contra apenas 16 pipelines, mas 330 milhões de transístores da R520 ?

Com os 8 pipes desactivados, a G70 passa a ter mais ou menos o mesmo nº de transístores que a 6800 Ultra/GT (222 milhões), ao passo que a R520 desce nos clocks, mas mantém aínda assim todos os 330 milhões activos...

gosto dessas comparações manhosas...comparar arquitecturas é valido mas comparar pipelines já não o é...enfim..dois pesos, duas medidas! (e escusas de vir cá com tretas do numero de transístores ou do tamanho do pipeline yada yada yada...)
 
HiGhVoIcE disse:
gosto dessas comparações manhosas...comparar arquitecturas é valido mas comparar pipelines já não o é...enfim..dois pesos, duas medidas! (e escusas de vir cá com tretas do numero de transístores ou do tamanho do pipeline yada yada yada...)
Não achas pertinente a referência ao número de transistores? É que esse factor em conjunto com o tamanho do processo de fabrico é somente o que dita o die size do GPU, isto afecta directamente os ganhos financeiros.

A arquitectura não se resume aos pipelines. Há varias coisas antes, depois e ao "lado". A eficiência aqui em jogo resume-se aos resultados finais de cada GPU quando postos em "igualdade" de circunstâncias, num exercicio puramente académico.

Não percebo a confusão que faz ao pessoal verificar que a nVidia tem uma arquitectura superior em termos de IPC. É que isto não significa automaticamente que seja um produto superior, apenas identifica a opção que a nVidia tomou quando desenharam os chips.
 
Back
Topo