ATI X800: Reviews e Comentarios

ToTTenTranz disse:
Sim.
Olha tu dizes "clock por clock a 6800 é mais eficiente" e eu digo "transistor por transistor a X800 é mais eficiente".

Quando comparas a eficiência clock por clock de um AMD com um P4, com referência ao IPC de cada um, mencionas o número de transistores ou a frequência nominal de cada um?

Estamos os dois certos, e o que é que isso quer dizer naquilo que realmente interessa? Nada!
Se a placa Y for mais rápida e mais barata, então escolho essa. Quero lá saber se está a correr a 2 ou a 2000Mhz. Só me interessa a qualidade gráfica e fluidez do jogo que estou a jogar.

Exacto. Por si só não quer dizer nada. PODE querer dizer que haja mais potencial de aumento de frequência de trabalho no GPU na nVidia do que no da ATI. Não creio que tivesse dito que a maior eficiência clock por clock fosse razão para eu escolher uma placa em detrimento da outra. Está-se a falar, especulando, em possibilidades futuras, potencias de cada placa. Nada disto é conclusivo.

Epah e quem foi o gajo que decidiu inventar o limite dos 600Mhz? Que cena ridícula.. digam-me o nome do site para nunca mais lá aparecer :P

Já te responderem a esta.


Outra coisa de partir a rir é o pessoal já andar a falar em potencial de overclock depois de ver os resultados dos reviewers feitos com o cooler de origem.
Quer dizer, estão portanto a comparar a plaquinha de cobre com uma ventoinha silenciosa da X800 com o cooler massivo e gigantesco que ocupa 2 slots, está equipado com heatpipes e tem uma ventoinha mais barulhenta da GF6800?
E depois não digam que não são biased.

Quem fez essas análises foram os sites, não quem comenta aqui no fórum com base nessas reviews. Li também que mesmo sem OC o cooler da X800XT fica intolerável ao tacto mais q poucos segundos, o que, não sendo absolutamente conclusivo, dá uma ideia q esta estará porventura mais perto do seu limite do que o chip da nVidia.

Ser-se biased é tentar argumentar contra factos. Facto -> A 6800 é mais eficiente que a ATI X800. De concreto, daqui, nada se tira, por isso não vejo porque é que dói admitir isto...

Quantos Mhz acham que o R420 daria se tivesse equipado com o cooler da 6800 e mamasse a energia de 2 molex ao mesmo tempo?

Não sei. 5, 15, 20 Mhz, diz-me tu... Tens a certeza que mais energia disponivel (não confundir com vCore) daria mais vantagens à ATI?

E porque é que a ATi não decidiu inventar uma X800 "Extreme" com isso tudo para puxar o core ao máximo e acabar com a concorrencia?

Porque se calhar já o fez, chama-se ATI X800XT Platinum Edition. Quem te garante que esses extras lhe traziam beneficios visiveis.

O R420 não é suposto ser um passo revolucionário, serve para manter a concorrencia ocupada até sair a bomba que vai ser o R500 (não que eu não considere o R420 uma bomba tambem, claro). Esta continua a ser a minha opinião.

Pois, mas o nV40, na realidade está bastante baseado no nV30, por incrivel que pareça. O que tem são as correcções que faltavam para "soltar a teoria" já presente no nV30, juntando-se-lhe o mesmo tipo de aumentos que a ATI fez à R3xx na R420.

Eu tambem já decidi qual das placas vou comprar:
Nenhuma!
Nenhuma delas mostra uma evolução suficiente face à minha R9700 Pro que me convença a gastar dinheiro numa gráfica nova. Muito menos quando neste momento apenas um jogo no mercado, o FarCry, tira total proveito dos SM2.

No entanto tiro o meu chapéu à ATi por fazer uma placa de alta gama que não gasta muita energia e que cabe um small form factor pc.
Tiraria o meu chapéu à nVidia se achasse que a vantagem em suportar SM3.0 fosse grande.. mas não me parece.. Talvez o displacement mapping venha a vingar..

Absolutamente de acordo! Assino por baixo. :)
 
ptzs disse:
E que evidência há para dizer que os pipelines são maiores ou mais pequenos?

Até agora só se sabe que são mais, de resto já se sabe à séculos que o r420 é uma evolução derivada directamente dos r3xx, logo é normal que os pipelines sejam iguais. Ou não?


Iguais nunca podem ser. Nem os pipelines do R300 são iguais ao R350. Só o facto de suportar um maior número de instruções implica remodelar parcialmente a arquitectura do chip.
 
Tafinho disse:
Claro que não tem qq sentido.
Depende do pipeline do chip. Por isso é que os P4 deram 3.2Ghz em 0.13u.
Claro que o P4 é muito mais pequeno que o R420, mas de 3.0Ghz para 600Mhz vai também uma grande diferença.

No que se refere a comprimentos dos pipelines até agora nada li sobre assunto. Mas é como muito sites se queixam. Ficam muitas coisas por dizer da arquitectura dos chips das gráficas.

Salvo erro, a unica tecnologia com intuito de permitir aumentos de clocks, presumivelmente presente no R420, é o low-k.

ToTTenTranz disse:
Iguais nunca podem ser. Nem os pipelines do R300 são iguais ao R350. Só o facto de suportar um maior número de instruções implica remodelar parcialmente a arquitectura do chip.

Sim, claro. Mas isso não implica o aumentar do número de stages nos pipelines, como se fez do NorthWood para o Prescott ou do Athlon XP para o A64 (por exemplo).
 
SilveRRIng disse:
Quando comparas a eficiência clock por clock de um AMD com um P4, com referência ao IPC de cada um, mencionas o número de transistores ou a frequência nominal de cada um?
(...) Ser-se biased é tentar argumentar contra factos. Facto -> A 6800 é mais eficiente que a ATI X800. De concreto, daqui, nada se tira, por isso não vejo porque é que dói admitir isto...

Define eficiencia..
Eficiencia numa peça de engenharia qualquer (seja electrónica ou mecânica) é dar o máximo consumindo o mínimo. Perguntas a qualquer engenheiro e ele responder-te-á o mesmo. Nestes termos considero o R420 muito mais eficiente que o NV40.

Agora se estamos a falar de eficiencia por ciclo de relógio é claro que o NV40 é mais "eficiente" (mau era, com mais 60 milhões de transistores em cima..). Agora qual é o interesse prático disso é que ainda estou para descobrir.
O Athlon XP tem uma performance por mhz superior à do P4.. e depois? O AXP tendo um pipeline mais curto nunca conseguirá atingir a velocidade de relógio que atingem os P4, assim como o NV40 nunca atingirá as velocidades que consegue atingir o R420.






SilveRRIng disse:
Quem fez essas análises foram os sites, não quem comenta aqui no fórum com base nessas reviews. Li também que mesmo sem OC o cooler da X800XT fica intolerável ao tacto mais q poucos segundos, o que, não sendo absolutamente conclusivo, dá uma ideia q esta estará porventura mais perto do seu limite do que o chip da nVidia.

Esse facto não é conclusivo de todo. A ATi não vende placas para fazer overclock.
Vende com valores de clocks que considera como estáveis.
No caso das R9600/9800XT o auto-overclock fazia uma diferença tão baixa que nem se notava..
Agora se outras companhias quiserem podem vender as placas com coolers melhores podem faze-lo, como fizeram em gerações passadas.




SilveRRIng disse:
Não sei. 5, 15, 20 Mhz, diz-me tu... Tens a certeza que mais energia disponivel (não confundir com vCore) daria mais vantagens à ATI?

À ATi como empresa? Não. Se desse vantagens a ATi teria feito uma placa com um PCB diferente.
Agora se perguntas se acho que com um cooler melhor e maior disponibilidade de energia o R420 atingiria clocks maiores... acho que isso é senso comum..
 
A nível de consumo de energia as placas andam próximas, já se viu isso. O duplo molex tem mais efeito psicológico que outra coisa.

Se tem mais energia disponivel é inegável, agora se a usa é no mínimo discutivel.

Que tem melhores coolers também é óbvio que sim. :D
 
ToTTenTranz disse:
Define eficiencia..
Eficiencia numa peça de engenharia qualquer (seja electrónica ou mecânica) é dar o máximo consumindo o mínimo. Perguntas a qualquer engenheiro e ele responder-te-á o mesmo. Nestes termos considero o R420 muito mais eficiente que o NV40.

A eficiência, no contexto discutido é o mesmo do IPC nos CPU's. Tal como disse, o clock por clock.

No que se refere ao consumo ainda não vi nenhuma conclusão que indique que a nV40 consome MUITO mais que a X800 ou mesmo a 9800. Li algures que tem mais a ver com uma garantia que a nVidia pretende, para o caso de se juntar uma nV40 com um Prescott, num sistema bem "populado". Testes feitos demonstraram que uma boa fonte de 350W dá conta do recado sem problemas. Mas sim, neste contexto a placa da ATI é mais eficiente.

Agora se estamos a falar de eficiencia por ciclo de relógio é claro que o NV40 é mais "eficiente" (mau era, com mais 60 milhões de transistores em cima..). Agora qual é o interesse prático disso é que ainda estou para descobrir.
O Athlon XP tem uma performance por mhz superior à do P4.. e depois? O AXP tendo um pipeline mais curto nunca conseguirá atingir a velocidade de relógio que atingem os P4, assim como o NV40 nunca atingirá as velocidades que consegue atingir o R420.

Exacto. Foi essa questão que quiz frisar. O que não sabemos concluir é se os pipelines da nVidia são realmente maiores ou não do que os da ATI. Inquestionavelmente o chip da ATI funciona a frequências superiores sem dificuldades, mas se a nVidia "lançou" uma versão OC em mais 50Mhz, pode-nos indicar que esta poderá tirar mais MHz em steppings futuros. É obvio que se está a especular mas como fiquei bem impressionado com o nV40 seria desejável que eles o conseguissem. Na altura correram rumores de que a ATI teve que "esticar" os specs finais da X800XT para poder fazer frente, com maior margem de vantagem, à placa da nVidia.

À ATi como empresa? Não. Se desse vantagens a ATi teria feito uma placa com um PCB diferente.
Agora se perguntas se acho que com um cooler melhor e maior disponibilidade de energia o R420 atingiria clocks maiores... acho que isso é senso comum..

O que eu quis dizer era que, TALVEZ, mesmo com melhores coolers e alimentação, os ganhos no aumento de frequência possivel (tipo: mais 10-15 Mhz encarecendo mais 20 ou 30€), não justificassem o aumento do valor final da placa, onde é provável que seja o ponto onde a ATI tem mesmo maior vantagem -> Custo de produção. Não estou a afirmar, estou a especular. :)
 
iJFerreira disse:
O *mito* da qualidade de imagem da Nvidia é mais antigo que isso.
Estava relacionado com a qualidade do sinal analógico VGA gerado
e a má qualidade dos filtros empregues para reduzir ruído de alta
frequência das ramdac's. A ATi gerava um sinal mais limpo.

Sim, foi por isso que disse que "pre geforce2" a historia era outra. Mas aí a culpa nem era da nVidia (pelo menos directamente), era mais dos fabricantes.
Havia até um "mod" que podia ajudar a situação.
 
Para os teimosos:

http://www.hardocp.com/article.html?art=NjExLDk=

X800XT:

These are the default clock speeds on the Radeon X800XT Platinum Edition, 519.75MHz core and 560.25MHz memory.

We were able to overclock the X800XT to 540MHz core and 570MHz memory. That is only a 20MHz core speed increase and a 10MHz memory speed increase which shows the X800XT is very close to maxing out its current frequency limitations.

At these overclocked settings looping 3dmark at a high resolution resulted in the card and memory chips becoming very hot, in fact it was too hot to touch for more than a few seconds. So if you are going to be doing any serious overclocking with these video cards make sure you have extremely good case air flow.

Resumindo, a X800XT encontra-se realmente no seu limite. Um overclock de 20mhz e não muito estáveis é desolador...

Enquanto isso, as 6800Ultra estão a dar algo a volta de 100mhz de overclock no core, e isto sem recorrer ao Watercooling e vmods, já que ela é bastante mais fresca que as NV30/NV38...


Muito sinceramente, a 6800U "enche-me mais as medidas" do que as x800XT...
 
Yep, a XT deve estar no limite (pelo menos por enquanto). Este quote é interessante em relação a isso.

Since there was no extra cooling for the memory chips on RADEON X800 XT, they got scary hot when the memory bus workload increased, and we couldn’t even touch them without burning the fingertips. Moreover, after a while we noticed a few visual artifacts on the monitor, which are typical of memory over-overclocking. We immediately installed a 120mm fan blowing extra air along the graphics card, and this resolved the memory overheating issue completely.

http://www.xbitlabs.com/articles/video/print/r420.html
 
Se a X800XT tb tivesse 1 cooler a ocupar 2 slots certamente tb daria para fazer mais overclock.

Quanto às duas consumirem a mesme energia...LOL

A X800XT só gasta 80W como tal basta usar uma PSU de 300w, logo existem grandes diferenças.

E segundo a xbitlabs a X800XT nem aquece tanto como a 9800XT como tal, n me venham dizer que a 6800ultra akece menos.
Basta ver o processo de fabrico das duas placas.
 
Já viram o novo control center da Ati? (yep, pode ser fake, espero que não..........)

ace.jpg


E a entrevista ao CEO tb é muito interessante. ( http://www.beyond3d.com/interviews/daveorton/ )

I think the main feature that people are looking at is the 3.0 shader model and I think that’s a valid question. What we felt was that in order to really appeal to the developers who are shipping volume games in ’04 Shader 2.0 would be the volume shader model of use. We do think it will be important down the road.

We had this concept of the “ping-pong” development between the west and east coast design centres. On paper this looked great, but in practice it didn’t work very well. It doesn’t work well for a variety of reasons, but one of them is the PC architecture, at the graphics level, has targeted innovation and clean sheet innovation and whenever you have separate development teams you are going to, by nature, have a clean sheet development on every generation of product.
............
What we are now moving towards is actually a unified design team of both east and west coast, that will develop our next generations of platforms, from R300 to R400 to R500 to R600 to R700, instead of a ping-pong ball between them both.

We changed the roadmap.

You can look at cause and effect. That was not the cause, internal changes was the cause and the outcome was that we decided the best way to go forward was to do “this” with the PC roadmap and take “that” and use it with X-Box. But that wasn’t the cause of the roadmap change, we had to make this change anyhow due to execution issues.
 
Acho engraçado as ultras ja estarem a dar mais 100mhz (500mhz), quando a ultra super xpto gt turbo "que só vão estar 12 a venda no universo" nao passou dos 475mhz na review do FS

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

A nividia já vai em 2 sets de drivers (mais dezena de bug menos dezena), uma versão emergency edition, que mal chega pra versao beta da ati.

Tenho mais esperanças na volari, que no marketing, perdao hardware da nvidia. E fixe fixe, era a sega entrar com a PVR5, no mercado, já que as vao usar nas arcades.
 
E tiras a conclusão a partir de um site?

http://www.tomshardware.com/graphic/20040414/geforce_6800-20.html

Temos aqui números bem diferentes por exemplo. Não sei se estamos a comparar alhos com bogalhos, mas a conclusão que tiro de todas a comparações energéticas é que a diferença não chega para dizerem tão mal do duplo molex.

Em relação aos drivers, não percebo o cascanço, qual o problema ter drivers com problemas para uma placa que não tem base já testada e usada? Aconteceu o mesmo coa 9700. Geez.

Epá, tirem umas férias do cascanço. Não existem produtos perfeitos. Melhor evolução, em relação às nv3x, só mesmo sacando Imperiais.
 
ptzs disse:
E tiras a conclusão a partir de um site?

http://www.tomshardware.com/graphic/20040414/geforce_6800-20.html

Temos aqui números bem diferentes por exemplo. Não sei se estamos a comparar alhos com bogalhos, mas a conclusão que tiro de todas a comparações energéticas é que a diferença não chega para dizerem tão mal do duplo molex.

Bem, a partir do tomshardware não tiras conclusão nenhuma... de certeza...
Depois... onde está a x800, é que comparar os consumos em duas máquinas diferentes é não comparar nada...
 
Resumindo, a X800XT encontra-se realmente no seu limite. Um overclock de 20mhz e não muito estáveis é desolador...

Tas a falar de uma placa q tem um cooler menos eficiente do q um de origem de uma 9800 pro ....eh uma placa q tem o memso cooler da X800pro com clocks bem mais altos....eh natural q esse mesmo cooler n aguente mto dado os clocks da X800XT...

Mete-lhe um cooler de uma 6800U a ver se ela n overclocka bem....alem de ke tb n vi nada de especial em overclocking nas NV40...
 
Zar0n disse:
Se a X800XT tb tivesse 1 cooler a ocupar 2 slots certamente tb daria para fazer mais overclock.

Quanto às duas consumirem a mesme energia...LOL

A X800XT só gasta 80W como tal basta usar uma PSU de 300w, logo existem grandes diferenças.

E segundo a xbitlabs a X800XT nem aquece tanto como a 9800XT como tal, n me venham dizer que a 6800ultra akece menos.
Basta ver o processo de fabrico das duas placas.

Estás a querer dizer que uma placa que consome 206W e tem duas fichas Molex precisa de uma fonte de 480W, que a outra que consome 183W e só tem uma ficha molex precisam de apenas uma fonte de 300W?

Devem estar a gozar.

É tudo marketing. Ao menos a Nvidia aprendeu a lição e para evitar problemas, recomenda uma fonte de alimentação para sistemas topo de gama de pelo menos 480W, mas funcionará bem num sistema vulgar com uma fonte a 400W e talvez menos. Além disso, quem tem um sistema topo de gama nunca terá uma fonte de 400W, portanto não sei qual é o vosso problema relativamente a este facto.

É o mesmo que quando comprarem um carro, dizerem que recomendam que usemos Gasolina de 98 octanas em vez de 95 ou 92.

Nemesis11, esse link para a xbitlabs está engraçado, a x800XT origina artefactos em carga devido a sobreaquecimento da placa... boa...
E diz a ATI, num dos pontos de divulgação, que podemos utilizar estas placas em Barebones tipo Shuttle sem problemas... oh si, Barebones com fontes de 250W fechados e sem espaço deve ser maravilhoso usar-se uma X800XT...

zer0, na altura em que saiu a 9700 foste tão critico como estás a ser com a 6800Ultra, ou apenas estás a seguir "as ondas"...



Punkas, estás a falar de uma placa com menor consumo de energia, menor voltagem de funcionamento e processo de fabrico a 0.13 ou 0.11, ainda não percebi no meio de todos os rumores dos "FanBoys". Isto sem esquecer que o cooler é muito superior ao de origem de uma R9800Pro.
Concluindo, sim, tinha o dever de fazer melhor!


Quanto às criticas dos drivers, tomara a ATI lançar em menos de um mês drivers que corrigissem eventuais problemas detectados após o lançamento da placa, e ao mesmo tempo melhorassem em 20% nalgumas situações a performance, sem degradação, e nalguns casos melhorar a qualidade de imagem....


É atirar a pedra quando todos os outros atiraram, mas pararem é que é dificil... Pensem, não sigam os outros!
 
Raptor, cuidado com esses 20%. São 20%, mas no release notes está cheio de linhas com descrições de bugs no Far Cry. Eu já postei isso, mas não sei onde isso anda.
Prefiro esperar pelos drivers finais para ver se isso se mantem.
É normal que os drivers da nVidia estejam mais "bugosos". A placa da Ati é uma continuidade, a da nVidia não. O mesmo aconteceu com a 9700 (talvez até pior).

Quanto à XT, tenho a mesma opinião do Raptor, aquilo está no limite, tanto no Gpu como nas mems.

Uma coisa. A NV40 deve ganhar performance com os PS3.0 no Far Cry, mas o mesmo deve acontecer com a Ati qd sair o patch com suporte para 3Dc. Falta saber quem ganha mais.

Outra coisa que todos se estão a esquecer. Estas placas vão durar uns 3 meses como "topos de gama". Dentro de relativamente pouco tempo temos cá fora a X880 e PCX6800 e aí pode haver diferenças devido à diferente implementação do PCi Ex.
 
fui muito critico era dos poucos k dizia k a nvidia ia levar na pá quando conseguisse lançar a super bombastica nv30, fartei-me de levar porrada neste forum, e no fim foi o k se viu.

Alias se não tiveres a memoria curta vais ver k já viste este filme antes.

de resto tenho pena...


Os principais problemas com a 9700pro na altura do seu lançamento eram do utilizador que nao sabia ler o manual...


Edit:
Nemesis11 disse:
zer0, não estaras a falar da NV30 e não da NV35?
 
Última edição:
Eu acho que estamos todos com problemas de comunicação.

1 - É sabido, e ninguem negou o facto, que a 6800 Ultra consome mais que X800XT. Testes práticos negaram a necessidade de uma PSU supra-sumo XPTO, no entanto aconselha-se uma boa. Para quem isto significa um grande handicap a nV40 não serve...

2 - Ainda não vi grandes comparativos e/ou valores concretos sobre o aquecimento de cada uma das placas. Apenas se disse nas reviews que a 6800 Ultra aquece pouco mais q a X800XT. Isto já me está a fazer lembrar as guerrinhas Athlon vs Pentium, q este ultimo era melhor porque aquecia menos...

3 - Quanto ao EVENTUAL potencial de OC de cada uma. A tal Emergency Edition, em valores nominais (nem vou comparar em percentagem) consegue OC mais que a X800XT, e sendo essa EE, na realidade uma Ultra em OC, nem vale a pena referir esta ultima...

Em termos de nivel de desenvolvimento/maturidade penso que ambas as placas estarão relativamente próximas, por isso, o argumento de q esta ou aquela são BETAs, não serve.

Penso que não irei precisar de falar do potencial de aumento de performance pelos drivers.

Não percebo a necessidade de bater na nVidia. A ATI tem um produto superior neste momento, está à vista de todos. Não é preciso pisar os pontos fracos da nVidia para evidenciar essa supremacia.

Têm é que se capacitar q os tempos do fosso nV30-R300 já lá vão. As coisas estão mais equilibradas e quem se excita a exagerar no martelamento na nvidia que se recorde que esse equilibrio é positivo para o seu próprio bolso e para a qualidade do produto que vier a adquirir.
 
Última edição:
Back
Topo