ATI X800: Reviews e Comentarios

e os 3dmarks? on´de é k estaO? :P

sou sincero..nao tive tempo de ler nada ainda :(
a univ tame a ocupar mt tempo..e.specialmente um relatorio de controlo!!!! grrrrr..
mas pronto..off topic a parte,continuem com os comentarios,que assim nao preciso de ler akilo tudo :P

_zZz_
 
já a contar com a Extreme:

3dmark.gif


A extreme ganha nos primeiros 3 testes e a XT no ultimo.
Fica à consideração de cada um darem ou não valor ao score final.
O primeiro teste para mim não tem qq valor.
 
Para mim nenhum dos testes nem o score final tem qualquer valor, não faço tenções de jogar 3Dmark2003. :P (j/k)

Mais a sério.

Estas placas têm uma performance impressionante, mas...

A verdade, para mim, é que não existem features novas que realmente "obriguem" ao upgrade. Excepto o AA e o AF ligados a altíssimas resoluções ser-me-á possivel jogar os jogos actuais, e os que surgirão durante este ano com todo o "eye candy" ligado, com esta 9800 Pro. O 3Dc não será implementado tão cedo (se chegar mesmo a ser, esperemos q sim) e os PS3.0 como já tanto se falou também não irão fazer a diferença para já.

A relativa proximidade desta geração de gráficas em termos de performance, provavelmente, acelerará o surgir da próxima. Essa sim, já deverá ser rica em novas features proporcionadas pelo DXnext (especulando).

A X800 é uma R300 musculada com mais uns pozinhos e a 6800 Ultra é uma nV30 com a arquitectura "corrigida" e musculada com mais uns pózinhos.

A performance delas é realmente impressionante, mas estando o meu grau de exigência "limitado" a jogar qualquer jogo a 1280x1024 com tudo ligado, não me parece que se justifique a aquisição de um destes canhões, a menos que este cenário se modifique entretanto (não quero cuspir pro ar... ). Escusado será dizer q a parte financeira cimenta muitissimo esta opinião. :)


EDIT: Cada cabeça, sua sentença...
Alguém me ajude a perceber os resultados da review deste site.

http://www.hardwareanalysis.com/content/article/1710.8/

Aqui a 6800 Ultra é mais rápida q a XT no Far Cry. Depois de tanto site a demonstrar o contrário, embora com nitidas diferenças na disparidade de valores (nuns é maior, noutros menor), nesta, só pode haver algo q me esteja a escapar.

nota: esta review foi feita num P4 3.2 EE.
 
Última edição:
SilveRRIng disse:
EDIT: Cada cabeça, sua sentença...
Alguém me ajude a perceber os resultados da review deste site.

http://www.hardwareanalysis.com/content/article/1710.8/

Aqui a 6800 Ultra é mais rápida q a XT no Far Cry. Depois de tanto site a demonstrar o contrário, embora com nitidas diferenças na disparidade de valores (nuns é maior, noutros menor), nesta, só pode haver algo q me esteja a escapar.

nota: esta review foi feita num P4 3.2 EE.

Olha para a versão dos drivers.
Para quem não se lembra, eles deram um salto de 20% nessa versão..........mas..........procurem o release notes.
Eu já o postei aqui no forum (não, não é nenhum cheat).
EDIT: Ah!!! E aquela não é a Ultra, é a Extreme

This GeForce 6800 Ultra sample board is different only by the clockspeed it runs at, 450-MHz instead of 400-MHz.
 
Penso comprar gráfica nova (aliás, penso comprar máquina nova) dentro de algum tempo, e pelas análises de hoje, fico muito indeciso. A ATI de momento leva vantagem, mas a Nvidia vai demorar a lançar e não me admirava que as Ultras e as Extremes ainda viessem a ter pelo menos frequências de core mais altas. Para além disso, não creio que a ATI extraia muito mais performance com actualizações dos drivers, pois já estão muito estáveis e provavelmente bem optimizados, visto a R420 ser uma evolução da R300, enquanto que a NV40 tem partes criadas de raíz (bem, é o que eles dizem :) ), ou seja, a Nvidia ainda deve ter muito pano para mangas. Para além disso, à medida que o processo de fabrico e os yields forem melhorando, é de esperar que a Nvidia consiga obter chips que permitam velocidades maiores, e a ATI já tem uma core a correr a uma frequência bastante alta. Entrando no reino da especulação, parece-me que, com frequência de core similar, a Nvidia ganha, mas dentro de algum tempo vamos poder ver isso (http://www.theinquirer.net/?article=15717), se bem que a um custo elevado :). De qualquer maneira, estou a falar dos topos de gama, mas isso está fora do meu alcance >( , e ao nível médio (médio-alto?) a NV GT parece ser superior à ATI PRO, pelo menos nas análises que vi. Para terminar, do ponto de vista de um programador, a NV40 parece mais interessante, visto ser claramente uma placa mais moderna.

Enfim, é só confusão. :D

PS: Nop, não sou um fanboy da Nvidia, embora goste muito da minha fabulosa GeForce 256 DDR :p
 
Axo que a ATI leva vantagem deste confronto.

PK tem melhor performance no geral.
PK irá estar disponivel em maiores quantidades.
PK é mais barata de produzir, e como tal poderá ser mais barata para o consumidor.
PK n necessita de uma PSU de 480W
PK é mais silenciosa.
PK só ocupa 1 slot.
PK tem melhor score com o AA/FSAA ligado.
PK pelas poucas reviews k focaram esse aspecto tem uma maior qualidade de imagem, ainda que a diferênça seja lijeira.

Pelo negativo.
N suportra PS3.0 (Como ja disse quando sairem vários jogos a usar isso a fundo já tou a trocar de gráfica)
Perde no 3Dmark ( Kuando der para jogar tlx eu ligue aos scores :zzz )

N se trata de fanatismos ( até pk tenho uma Nvidia ;P )
Mas n vejo nada de especial na 6800Ultra, e duvido que apareçam uns drivers "milagrosos"

E a 6800Ultra extreme edition, já esta a demontrar a situação apertada em k a nvidia está, e no seu desespero jah lança placas para só para jornalistas.
 
Nemesis11 disse:
O "mito" apareceu devido aos varios cheats e ao falso trilinear, que ainda existe, mas já tem opção para desligar. Nos tempos pre geforce 2 tb havia varias queixas, mas aí as razões eram outras.


O *mito* da qualidade de imagem da Nvidia é mais antigo que isso.
Estava relacionado com a qualidade do sinal analógico VGA gerado
e a má qualidade dos filtros empregues para reduzir ruído de alta
frequência das ramdac's. A ATi gerava um sinal mais limpo.

Esse outro problema é mais conhecido por *o cheat da nvidia*.
É claro que para uns é cheat para outros é uma optimização com vista
à performance sacrificando qualidade.
No universo da computação gráfica em 3D este tipo de optimizações são
o pão nosso de cada dia começando no Z-buffering.

Para finalizar, entre a Ati 800 e a Nvidia 6800 a escolha é óbvia.
Vai-se para a placa mais evoluída e moderna para além de
provavelmente ser mais overclockável.


Por outro lado é interessante que quanto às placas já não impera
os, *faz mais com menos clock*, *é mais eficiente*, etc que
tanto dizem dos cpu's AMD quando comparados com os Pentiuns 4.
 
Última edição:
SilveRRIng disse:
Se isto for assim mesmo, pessoalmente não considero isto nada grave.

Quer dizer... se a performance subiu por causa desse bug com os novos drivers, e não resolvem os problemas mais importantes que as placas têm no jogo, não é grave?

E tanto mais num jogo que foi feito em parceria com a Nvidia... aquilo do logo não foi apenas tirado a última da hora de um PR de uma empressa para fazer vender mais uma placa. É que o FarCry ainda por cima foi feito em Cg da Nvidia... mas porquê estes problemas todos?

Eu acredito que os problemas sejam resolvidos pois a placa teóricamente faz mais do que aquilo e é capaz de fazer melhor, agora decepciona no primeiro jogo que faz justiça ao uso de PS2.0, a placa tenha tanto problemas. Em outros jogos que usem PS2.0 a placa portou-se muito bem, agora fico decepcionado por causa dos problemas que a placa têm.

Que eu saiba o patch 1.1 trouxe suporte para o NV40... onde está ele? A placa não devia funcionar como deve ser tendo esse suporte?

As pessoas já se perguntaram o que será a performance da 6800U se não usarem o "brilinear"? Ou nem dão importância a isso porquê apenas não se vê a olho nu na maioria dos casos?

http://www.xbitlabs.com/articles/video/display/r420-2.html
 
Última edição:
iJFerreira disse:
O *mito* da qualidade de imagem da Nvidia é mais antigo que isso.
Estava relacionado com a qualidade do sinal analógico VGA gerado
e a má qualidade dos filtros empregues para reduzir ruído de alta
frequência das ramdac's. A ATi gerava um sinal mais limpo.

Ora nem mais. Neste campo o dominio foi sempre nitidamente da Matrox, possuindo um filtro de 3 camadas. Isto fazia a diferença, principalmente em 2D.

Esse outro problema é mais conhecido por *o cheat da nvidia*.
É claro que para uns é cheat para outros é uma optimização com vista
à performance sacrificando qualidade.
No universo da computação gráfica em 3D este tipo de optimizações são
o pão nosso de cada dia começando no Z-buffering.

A questão é que é comum pôr-se tudo no mesmo bolo e limitar-se a chamar "pior qualidade de imagem". Como já aqui se falou a própria Microsoft considera o algoritmo da nVidia como superior, em termos de qualidade, em relação ao rasterizer padrão do directX, considerando-o perfeitamente natural como a natural evolução que esta própria implementa nas actualizações que faz ao seu próprio API.

Para finalizar, entre a Ati 800 e a Nvidia 6800 a escolha é óbvia.
Vai-se para a placa mais evoluída e moderna para além de
provavelmente ser mais overclockável.

Por outro lado é interessante que quanto às placas já não impera
os, *faz mais com menos clock*, *é mais eficiente*, etc que
tanto dizem dos cpu's AMD quando comparados com os Pentiuns 4.

Na mouche! Ao contrário dos rumoures que a ATI estava a usar o processo de fabrico a 110nm, na realidade, usa o de 130nm, com o tal limite teórico de 600Mhz. Os testes preliminares dão a ideia de mais margem de aumento OC na nVidia, com boa escalabilidade. Como já se disse, também, clock por clock a 6800 é mais eficiente, o que lhe dá boas perspectivas futuras, assim como os já habituais ganhos de performance em cada lançamento de novos drivers.
 
Crusher disse:
Que eu saiba o patch 1.1 trouxe suporte para o NV40... onde está ele? A placa não devia funcionar como deve ser tendo esse suporte?

As pessoas já se perguntaram o que será a performance da 6800U se não usarem o "brilinear"? Ou nem dão importância a isso porquê apenas não se vê a olho nu na maioria dos casos?[/url]

A placa nem está na rua, dá-lhe tempo, afinal de contas foi feita de raíz. Estas coisas demoram tempo, como provam o novo patch 1.2 e as drivers 61.11.

Há mais reviews a forçarem o Trilinear do que a usarem as 61.11, não existem reviews perfeitas. O problema está mesmo no facto de não se notar diferença nítida, só mesmo com zooms e testes de padrões lá vais, exactamente os mesmos testes que dão para ver que o Trilinear da Nv é melhor que o da ATi.
 
ptzs disse:
Há mais reviews a forçarem o Trilinear do que a usarem as 61.11, não existem reviews perfeitas. O problema está mesmo no facto de não se notar diferença nítida, só mesmo com zooms e testes de padrões lá vais, exactamente os mesmos testes que dão para ver que o Trilinear da Nv é melhor que o da ATi.

É verdade que não notas a diferença... mas quando compras uma placa por aquele preço TU não queres ter controlo total nas capacidades da placa e botar tudo no máximo como tu queres?

É a mesma coisa que tu chegares as configurações de vídeo de um jogo e mesmo não sabendo que algumas opções não fazem tanta diferença na qualidade gráfica, tu botas tudo no máximo, porque pagastes 500€ pela placa.

O problema é que a companhia X ou Y anda a controlar essas definições para ganhar benchmarks... sejamos honestos.

Eu acho mau quando se compra uma placa por 500€, dá a ideia que a placa ainda não seja nossa porque andam com truques em drivers para ganhar benchs... isso é que eu acho mal.


Quanto ao Trilinear...em ambas as placas dá para usares trilinear a 100%. O problema é que por definição a NV usa uma mistura de trilinear e bilinear, e quanto a ATI não chega a ser 100% trilinear se usares o Quality no painel de controlo, mas não usa bilinear... há uma artigo no 3DCenter se não me engano a explicar isso.

O AF por acaso degradou-se no NV40 que é igual ao da ATi embora não se note muito, penso que dá para escolher o AF de maior qualidade do NV3x, embora por definição o AF do NV4x é igual ao da ATi.
 
SilveRRIng disse:
Como já se disse, também, clock por clock a 6800 é mais eficiente, o que lhe dá boas perspectivas futuras, assim como os já habituais ganhos de performance em cada lançamento de novos drivers.


Ai sim?
Olha tu dizes "clock por clock a 6800 é mais eficiente" e eu digo "transistor por transistor a X800 é mais eficiente".
Estamos os dois certos, e o que é que isso quer dizer naquilo que realmente interessa? Nada!
Se a placa Y for mais rápida e mais barata, então escolho essa. Quero lá saber se está a correr a 2 ou a 2000Mhz. Só me interessa a qualidade gráfica e fluidez do jogo que estou a jogar.


Epah e quem foi o gajo que decidiu inventar o limite dos 600Mhz? Que cena ridícula.. digam-me o nome do site para nunca mais lá aparecer :P


Outra coisa de partir a rir é o pessoal já andar a falar em potencial de overclock depois de ver os resultados dos reviewers feitos com o cooler de origem.
Quer dizer, estão portanto a comparar a plaquinha de cobre com uma ventoinha silenciosa da X800 com o cooler massivo e gigantesco que ocupa 2 slots, está equipado com heatpipes e tem uma ventoinha mais barulhenta da GF6800?
E depois não digam que não são biased.


Quantos Mhz acham que o R420 daria se tivesse equipado com o cooler da 6800 e mamasse a energia de 2 molex ao mesmo tempo?
E porque é que a ATi não decidiu inventar uma X800 "Extreme" com isso tudo para puxar o core ao máximo e acabar com a concorrencia? Porque aquele cooler e PCB baratos e os baixos consumos de energia são suficientes para fazer frente à concorrencia.. O R420 não é suposto ser um passo revolucionário, serve para manter a concorrencia ocupada até sair a bomba que vai ser o R500 (não que eu não considere o R420 uma bomba tambem, claro). Esta continua a ser a minha opinião.

Eu tambem já decidi qual das placas vou comprar:
Nenhuma!
Nenhuma delas mostra uma evolução suficiente face à minha R9700 Pro que me convença a gastar dinheiro numa gráfica nova. Muito menos quando neste momento apenas um jogo no mercado, o FarCry, tira total proveito dos SM2.


No entanto tiro o meu chapéu à ATi por fazer uma placa de alta gama que não gasta muita energia e que cabe um small form factor pc.
Tiraria o meu chapéu à nVidia se achasse que a vantagem em suportar SM3.0 fosse grande.. mas não me parece.. Talvez o displacement mapping venha a vingar..
 
Última edição:
Crusher: Podes forçar Trilinear na nv40, tem uma opção para isso, já se falou nisso.

ToTTenTranz: O limite não é descabido, assim como calculas limites teóricos para memórias tb podes calcular para outras coisas. Nem é preciso um génio, até porque o mesmo processo de fabrico num gpu com mt menos transistores (9600xt) raramente passa dos 600Mhz sem chillers. O que fará quase o dobro de Tcount...
 
ptzs disse:
ToTTenTranz: O limite não é descabido, assim como calculas limites teóricos para memórias tb podes calcular para outras coisas. Nem é preciso um génio, até porque o mesmo processo de fabrico num gpu com mt menos transistores (9600xt) raramente passa dos 600Mhz sem chillers. O que fará quase o dobro de Tcount...

Isso não é linear. À medida que se vão fazendo chips novos vão-se usando técnicas novas para aumentar os clocks. Por exemplo tanto a Radeon 7500 como a 9800 são feitos em 0.15. A 9800 tem o quadruplo dos transistores da 7500 e atinge clocks muito mais altos.


Se o limite é descabido ou não eu não sei. Apenas me parece cuspido para o ar.. E se calhar quem o cuspiu foram os mesmos que se puseram a dizer que o X800 seria feito em 0.11..
 
Que técnicas novas se usam na r420 que não se usaram na 9600xt?

Até a fábrica é a mesma! Além disso a 9600xt nem tem um ano, por isso não percebo a comparação 7500/9800 que têm diferenças de arquitectura abismais, enquanto que da 9600xt para a r420 foi um saltinho.

O limite até pode ser cuspido para o ar, mas tem sentido. Ao contrário da cuspidela dos 0.11u.
 
ptzs disse:
O limite até pode ser cuspido para o ar, mas tem sentido. Ao contrário da cuspidela dos 0.11u.

Claro que não tem qq sentido.
Depende do pipeline do chip. Por isso é que os P4 deram 3.2Ghz em 0.13u.
Claro que o P4 é muito mais pequeno que o R420, mas de 3.0Ghz para 600Mhz vai também uma grande diferença.
 
E que evidência há para dizer que os pipelines são maiores ou mais pequenos?

Até agora só se sabe que são mais, de resto já se sabe à séculos que o r420 é uma evolução derivada directamente dos r3xx, logo é normal que os pipelines sejam iguais. Ou não?
 
Back
Topo