Comparativo de Eficiência: G70 vs R520

SilveRRIng disse:
Não achas pertinente a referência ao número de transistores? É que esse factor em conjunto com o tamanho do processo de fabrico é somente o que dita o die size do GPU, isto afecta directamente os ganhos financeiros.

A arquitectura não se resume aos pipelines. Há varias coisas antes, depois e ao "lado". A eficiência aqui em jogo resume-se aos resultados finais de cada GPU quando postos em "igualdade" de circunstâncias, num exercicio puramente académico.

Não percebo a confusão que faz ao pessoal verificar que a nVidia tem uma arquitectura superior em termos de IPC. É que isto não significa automaticamente que seja um produto superior, apenas identifica a opção que a nVidia tomou quando desenharam os chips.

a questão não é essa...a questão é o facto de vocês serem tendenciosos! Querem comparar arquitecturas/nº de transístores mas depois no que toca a pipelines ta quieto...

e, o que está aqui em jogo, não é só a capacidade de processamento grafico mas sim todos os extras que o cpu trás! Se querem comparar o que quer que seja, sejam justos! Neste caso seria despir o gpu (irrealizavel) e comparar os pipelines: o da ati com menos faz mais! Agora sim, surge a questão do número de transístores...no entanto há sempre uma ou mais incógnitas: qual o tamanho do pipeline e o nro de transístores que este leva? Como podem dizer que o da nvidia é melhor sem saber a distribuição de transistores pelas unidades? ...

e outra coisa...igualdade de circunstancias? ...sabes muito bem que isso é apenas para burro ver (sem querer ofender ninguem...)

nota: tnh uma nvidia :007:
 
Vamos lá ver uma coisa. Quando se quis testar a eficiência, em termos de IPC, de um AMD com um P4, o que se fez foi por ambos à mesma frequência, com os restantes componentes tão parecidos quanto possivel. O resultado foi fácil de analisar. Os AMD têm realmente um IPC mais alto. No entanto um P4 Northwood batia facilmente um AMD XP. Isto parece-me claro, e é relativamente "transportável" para a comparação da thread.

Os pipelines não podem ser comparados isoladamente do resto da arquitectura porque são desenhados em função da mesma e vice-versa, não faz sentido querer-se analisar isto. Não vejo onde é que é afirmável que a ATI faz mais com menos se em termos de IPC é inferior.

O que existe sim, é uma melhor eficiência da nVidia na maior parte do processamento. A ATI tem uma melhor implementação do suporte para o SM3.0 dado que a nVidia tem problemas de branching.

Eu não posso falar pelos outros, mas para mim é fácil atribuir os louros a quem de direito. A minha tendência é de olhar pra numeros e factos minimamente comprovados e não para o logotipo colado à placa, por isso volto a frisar: A nVidia até podia ser 2x mais eficiente neste teste que a ATI que o que me interessaria e influenciaria numa intenção de compra seria a performance, features e consumo de ambos os produtos em default.


ps: eu já puz igualdade entre "s para dar a ideia de que isso não é totalmente possivel. Neste teste tentou-se o praticável mais proximo disso.
 
1- A questao dos 40Mhz a mais na 7800GTX continua sem se saber como foi resolvida nos testes, pq os drivers oficial da Nvidia fazem 40mhz de overclock quando detectam aplicaçoes 3d sem qq intervençao do utilizador.

2- Drivers.....

Podem fazer as comparaçoes que quizerem entre os CPU´s e as graficas, mas nas graficas há um factor extrememente importante a ter em atençao, que é os drivers.
Quaisquer teorias de IPC Nvidia/ATI sao ridiculas.

Se aquele teste usasse o novo Fix para Opengl da ATI com 2 dias se calhar ja os resultados nao seriam assim..... e a teoria do IPC ia por água abaixo, visto uma release de driver poder virar o resultado ao contrario.
E as novas ATI têm imenso espaço para progredir, visto ser um novo chip totalmente redesenhado e ainda esta muito pouco aproveitado. (Ainda nem sequer drivers oficiais existem para estas novas placas....)
 
DJ_PAPA disse:
1- A questao dos 40Mhz a mais na 7800GTX continua sem se saber como foi resolvida nos testes, pq os drivers oficial da Nvidia fazem 40mhz de overclock quando detectam aplicaçoes 3d sem qq intervençao do utilizador.

2- Drivers.....

Podem fazer as comparaçoes que quizerem entre os CPU´s e as graficas, mas nas graficas há um factor extrememente importante a ter em atençao, que é os drivers.
Quaisquer teorias de IPC Nvidia/ATI sao ridiculas.

Se aquele teste usasse o novo Fix para Opengl da ATI com 2 dias se calhar ja os resultados nao seriam assim..... e a teoria do IPC ia por água abaixo, visto uma release de driver poder virar o resultado ao contrario.
E as novas ATI têm imenso espaço para progredir, visto ser um novo chip totalmente redesenhado e ainda esta muito pouco aproveitado. (Ainda nem sequer drivers oficiais existem para estas novas placas....)

"FIX" esse que só tem efeitos prácticos no Doom 3 e só com 4X AA activado and up...
Além disso, já vem tarde, o Doom 3 tem um ano de idade.

Estranho não existirem "FIX'es" para a performance no jogo da ATI, Half Life 2...:002:

Mais estranho aínda é disponibilizarem o suposto "FIX" para a imprensa testar, à parte do driver actual, com a inclusão nos mesmos a só acontecer na próxima release.

Talk About "optimizations", a ATI agora até tem ficheiros especiais para as mesmas, separados dos drivers...

BTW: em relação aos clocks, além de fazerem overclock, também fazem underclock, e esse dos patamares de 40mhz é fantasia, basta calcular a maneira como muitos fabricantes vendem versões da GTX a 460 e 490mhz.
430+40= 470; 470+40= ? Pois...
 
Última edição:
Realmente concordo com algumas coisas que foram ditas como os paralerismos entre os monopolios das GPUS e os dos CPUS (do estilo AMD = Nvidia e por ai ...) mas até certo ponto.

Certas decisões tomadas pela AMD sempre fizeram sentido, como o abandono da procura do MHz pela procura da performance por W que é +/- o que eles fazem neste momento, bem como ligações directas entre CPU e memória que é algo com MUITO sentido (afinal de contas o CPU recorre intensivamente à RAM), no entanto a AMD tem 2 problemas desde à muito tempo e onde a Intel consegue ter optimos resultados, que são os seguintes:
- a oferta imediata de produtos recentes;
- uma rede de devellopers que produz software optimizado para os seus produtos bem como material bem documentado para ajudar na criação desse mesmo software e engenheiros electrotecnicos especializados em optimização de software (alguem se lembra do divx 3.11? foi optimizado por esses mesmos senhores no inicio e os CPUS Intel tinham melhor qualidade de imagem e eram + rápidos que os da AMD)

O mesmo acontece com a Nvidia e a ATI. A Nvidia disponibilize os melhores drivers de Linux (logo a seguir aos da Matrox) que existem no mercado (o que é uma clara vantagem dado o estado dos drivers da ATI para o Linux). No entanto a rede da ATI para devellopers é melhor que a da Nvidia, ou seja, disponibilizam mais volume de informação.

Além disso com a evolução da computação distribuida e do aumento do numero de transistores uma parte da comunidade académica que investiga a computação cientifica voltou-se para o uso dos GPUS nessa mesma computação. O resultado é a descoberta que através de código específico é possivel correr aplicações normais e ter desempenhos muito superiores aos dos convencionais CPUS. Mais recentemente foi publicado uma especie de estudo em que se compara uma 1800XT com uma 7800GTX tendo por base os resultados de um P4 3Ghz e as conclusões que se tiram é que o chip da ATI é tecnologicamente mais evoluido pois permite programações mais evoluidas e tendo até maior performance do que o chip da Nvidia nas mesmas tarefas.

O que se passou neste caso foi um aperfeiçoamento das técnicas já possuidas pela ATI e aperfeiçoamento das técnicas de programação que irão estar disponiveis aos utilizadores/programadores de jogos/software sem que existisse uma procura maluca pelo pixel pipeline ou vertex pipeline, obtendo assim um desempenho final igual.


nota: Assim que encontrar um espaço para o PDF que contem as comparações dos chips graficos eu edito este meu post e coloco aqui.
 
blastarr disse:
"FIX" esse que só tem efeitos prácticos no Doom 3 e só com 4X AA activado and up...
Além disso, já vem tarde, o Doom 3 tem um ano de idade.

Estranho não existirem "FIX'es" para a performance no jogo da ATI, Half Life 2...:002:

Nao, tas enganado. Funciona em todos os titulos openGL quando os maiores setings de qualidade sao activados incluindo o AA e AF.

Quanto ao HL2 a ATI sempre ganhou nesse bench, mas é uma questao de novos drivers para as diferenças ainda se alargarem mais.

Esse fix para OpenGL nao está disponivel a nivel geral pq vai ser integrado nos catalistic 5.11
 
DJ_PAPA disse:
Nao, tas enganado. Funciona em todos os titulos openGL quando os maiores setings de qualidade sao activados incluindo o AA e AF.

isso é bom.
tb em prole da verdade, que interessa o doom actualmente, portanto nem de outra maneira faria sentido.
 
JCFR disse:
isso é bom.
tb em prole da verdade, que interessa o doom actualmente, portanto nem de outra maneira faria sentido.

http://www.hexus.net/content/item.php?item=3668

On an Athlon 64 FX-57 system (ASUS A8N-SLI, 1GiB DDR400, Radeon X1800 XT 625/750, GeForce 7800 GTX 430/600), the tool shows the following increase in Doom3 scores using HEXUS's own custom demo. Timedemo 1 built in to the game shows similar gains and the HEXUS results show a 32% performance boost at 1600x1200.

The other popular OpenGL-based first person shooter, Starbreeze's Chronicles of Riddick, also shows gains on the X1800 XT but only to the tune of 16% (although not insignificant) at 1600x1200 with antialiasing on.

The tweak also shows gains similar to Riddick's in the Serious Sam 2 demo using the OpenGL version of Croteam's renderer, so OpenGL performance is generally up quite healthily across the board.
 
Back
Topo