Video Card Image Quality: GeForce 6800 Vs Radeon X800

os efeitos da gf6800 no farcry tão muuuuuuito fixes :cool:
a x800 parace uma má compra visto que não suporta a tecnologia ncessária para os mesmos :rolleyes:
 
forçe
Raptor disse:
O que há para dizer, voçês jogam com zoom optico de 4x para descobrirem algumas falhas que poderão ser corrigidas quando sairem drivers novos?
(...)
FairCry não vale a pena falar enquanto não lançarem o raio do patch que forçe a utilização de PS3.0 e aí sim, veremos como voçês se calam todos.
Painkiller poderá ser um caso isolado, também não jogo.



[cavaleiro_protector_da_língua_portuguesa_mode-ON]

Raptor, quando um "C" está seguido das vogais "A", "O" ou "U", tens de usar um "C" com cedilha (Ç) para ter um som parecido com o "S" em vez do som do "Q".
No entanto, quando o "C" está seguido de um "E" ou um "I", a utilização da "cedilha" para obter um som parecido com o "S" não só é desnecessária como tambem errada.
Portanto a maneira certa de escrever as palavras que eu transcrevi em "bold" será: "vocês" e "force".
No entanto, admito que ganhas pontos por usar o acento circunflexo no "e" de "vocês", que muita gente omite.
Espero ter ajudado.
[/cavaleiro_protector_da_língua_portuguesa_mode-OFF]


E agora o que eu acho:

1) As diferenças são mínimas, e durante o jogo (sim, porque estas placas servem para jogar e não tirar screenshots e depois fazer um zoom óptico de 10x para mostrar que uma mostra mais píxeis pretos que a outra..) de certeza que serão completamente imperceptíveis, portanto acho que temos um empate.
Acho que a questão que se põe é: ambas as placas correm à mesma velocidade com esta qualidade de imagem?


2) Melhorias súbitas em drivers de 20% de performance em todas as aplicações nunca aconteceram na história das placas gráficas sem ser à custa de alguma coisa. Não é agora que vai acontecer. Isso pode acontecer em casos pontuais, mas aí é um bug que é resolvido, não é um "enhancement" do driver..
"Modelo totalmente novo e ainda não optimizado"? Get real... Os coders dos drivers com jeito já têm NV40s nas mãos há 8 meses ou mais. O hardware hoje em dia é feito a pensar nos standards do software, não é o contrário.
Pega em drivers da ATi com um ano e meio e compara com os actuais, usando uma R9700 Pro no Unreal II, por exemplo. Vê a diferença de performance. Faz o mesmo com os primeiros drivers que suportavam a GF4 Ti e compara com os últimos forceware, no Quake 3.
 
ora vejamos até agora tenho de concordar com o posto do Raptor em analise ás 2 placas!

temos aki mtos fanboys k ja dao como certa a vitoria da Ati...nao se eskeçam k ainda agora mal começou a luta..e nao sou nenhum nvidia addict ate pk tenho uma Ati...o k eu vejo é um melhor "futuro" na arkitectura das novas placas da nvidia e keiram ou nao é uma placa mais avançada k a x800! mas até lá se verá kual delas irá "reinar" e enkuanto esse dia nao xega pff nao usem as "palas" nos olhos!

um abraço!
 
Pois realmente tá equilibrado... :zzz:

De uma lado temos:
Melhor kualidade de imagem, mais FPS, mais barato e com PCI-E nativo

Do outro temos:
PS 3.0

Hummmm vai ser dificil decidir.... :zzz:
 
Zar0n disse:
Pois realmente tá equilibrado... :zzz:

De uma lado temos:
Melhor kualidade de imagem, mais FPS, mais barato e com PCI-E nativo
Do outro temos:
PS 3.0

Hummmm vai ser dificil decidir.... :zzz:

Se jogares um jogo em ScreenShots, talvez consigas notar. Mais FPS se não for OpenGL e não se vier a usar os PS3.0. Mais barato? Vê a thread q o Zealot abriu. PCI-E nativo q vantagens comprovadas te traz?

Não te precipites a decidir...
 
Benchs da X800XT sem o "Briliniar"

http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

A vermelho o default, a verde "full trillinear".

Doi um bocado ver estes numeros.....

Edit: Eu não sou contra optimizações que não prejudiquem o IQ, mas como as reviews fizeram sempre tudo para desligar as optimizações (fizeram isso com as reviews da nVidia 6800), provavelmente tb vão querer desligar as da Ati. Ou então deixam as opt. ligadas para as duas.
Agora é esperar..............
 
Última edição:
Coitados dos gajos do Computerbase.de!

Acho que vão ser banidos da sociedade por investigarem e publicarem contra a maré.

Realmente, 40Fps no UT2003 é um bonus bom, ou não.
 
Então...mas com as "optimizações" a imagem da x800 perde muita qualidade em relação à 6800???


lá vai o ptzs mandar-me ler a outra thread toda!!! :fart: :cool:
 
@[JoaoR]

Basta veres a 1 imagem desta thread.

A ATI tem melhor ou igual qualidade de imagem do n a Nvidia com elas ligadas ou n.

O que quer dizer k as optimizações da ATI n se notam ao contrario das da Nvidia.

-----

Quanto a esse teste da Computerbase.de queria era ver no que isso se traduz na imagem.
Axo isso muito perliminar para se poderem tirar conclusões...
 
No Farcry nota-se bastante a qualidade da ATI.
reparem pras 2 sombras do barco.
os vertices estao + perfeitos na ATI, têm menos alising e a relva na areia ta melhor difundida e + defenida. A pedra tb tem menos alising na ATI.

Se somarmos tudo isto, temos uma qualidade de superior na ATI no FarCry.

No Painkiler a diferença é notoria.
no UT 2004 tao iguais.

Agora aquelas sombras do Farcry nao têm desculpa :004:
 
Para quem tem uma X800, como é que está o Far cry com os 4.5? Ou mesmo os 4.6? É que estou farto de ler que tb há problemas.

Em relação a este problema de IQ, alguem leu o artigo da digit-life e a sua conclusão?

Eu por mim fico à espera de uma review que desligue as opt nas duas. Penso que seja o mais justo.
 
Nemesis11 disse:
Para quem tem uma X800, como é que está o Far cry com os 4.5? Ou mesmo os 4.6? É que estou farto de ler que tb há problemas.

Em relação a este problema de IQ, alguem leu o artigo da digit-life e a sua conclusão?

Eu por mim fico à espera de uma review que desligue as opt nas duas. Penso que seja o mais justo.


Nemesis, explica lá porquê :)

não me faças ler reviews inteiras só para saber uma coisinha tão pequena ;)
 
Our previous material dealt with the differences between X800 and GeForce 6800 filtering realisations in a RightMark synthetic test. As you remember, the picture was quite ambiguous and in general, 6800 trilinear filtering optimisation brought about a somewhat lesser quality fall than X800, although a parity could also be recognised.

............

Concerning the games, they have shown that there are but slight differences between various realisations of the mentioned filterings.

............

We leave it up to our readers to decide what is better, but I personally consider the approach used in GeForce 6800 more correct, and simplified trilinear filtering is less visible there. And besides, if the user forces anisotropy in a game that can manage the function itself, then its realisation will be correct and correspond to the norms on GeForce 6800, while it will disappear whatsoever on X800. FarCry can serve as a perfect example for this. The game only allows four degrees of anisotropy, which is not enough for users of powerful cards. Thus, any owner of an expensive accelerator will set anisotropic filtering in the drivers. As a result, GeForce 6800 will work correctly while RADEON X800 will turn off trilinear filtering. Surely, ATI fans will be quick to remind me of certain problems related to NV3x/4x's shader calculation precision in this game. Well, that's really a drawback, but patch 1.2 is to appear soon and we'll see if it can correct it.

............

Summing up, I would like to say the following thing. Despite multiple accusations that ATI or NVIDIA deceives users, the main problems lie not in the realisation of trilinear filtering or even anisotropy. They are driver/game bugs that result in real artefacts and not in some trifles found by a meticulous admirer of the rival company. Open our 3DiGest section that deals with quality in games and you'll see that there are claims about many other things which bad programmers are really to blame for (including game developers as it's their mistakes that cause almost a lion's share of all problems).

Therefore, no matter how indignant fans of "pure graphics" are (in fact, they are usually fans of either ATI or NVIDIA), an overwhelming majority of users will see NO DIFFERENCE in most games due to all these optimisations.


............

So, is it good or bad? I think everyone should be able to choose. Even if a user never sees the difference and never enables optimisation, he still deserves to have a choice. If a washing machine lowers the frequency on the Q.T. and underwrings out the clothes, most householders will hardly notice it, but inevitably, there will be some people who will make a huge row out of it. And the manufacturing company will have to apologise for this unintended effect (as was the case with ATI). But if that washing machine had a mode regulator, each could choose the frequency himself and would be aware of his actions. Then there would be no claims, and NVIDIA would have no reason to issue humiliating presentations concerning ATI products. In the end, the Californian company turned out to be fairer, although it used to be the main focus of reproach for optimisations.

Meti as partes que acho importantes (e acho que diz tudo).
Texto aqui
 
Farcry on nVidia = PixelShader3

Farcry on Ati = No PixelShader3

vejam as imagens e videos k andam pela net e tirem as conclusoes! o futuro tá á vista!
 
As placas quer sejam nvidia, quer sejam ati ñ caem propiamente do ceu. ;) Se ñ tiveres carteira pra elas de certeza que o futuro ñ passa por lá :P


edit: pelo menos o futuro daqueles que ñ tiver carteira.


edit 2: Agora a sério, o futuro vai sorrir mais risonho a quem vencer a guerra na gama média e média/alta em termos de preço/performance. O uso dos ps3 ñ infulencia nem 5% das vendas pk se te lembrares quem anda informado é uma minoria. Agora as da gama alta..... epá.... são apenas pra quem pode e pra quem quer o que de melhor se faz e aí... aí a maioria dos consumidores sabem o que compram mas essa é a fatia menor do mercado.
 
eu tou-me a referi aos avanços a nivel de graficas e nao ao facto de podermos adquiri-las ou nao! uma coisa é certa...os preços k se praticam hj em dia para uma grafica topo de gama sao abusivos...e no fim só as tem kem pode...kem pode pode, kem nao pode nao pode! lol

mais uma vez em relaçao ao topico desta thread mais uma vez digo a placa k mais me impressionou até agora foi a da nVidia e sinceramente espero k continue assim...ja tenho saudades da poderosa nVidia no topo..nao menosprezando a Ati k tb adoro ao ponto de ter grafica da Ati!

penso k tenha sido o Raptor k disse:

R420 = "aperfeiçoamento" do chip ja existente (com poucas novidades)

NV40 = Arquitectua totalmente nova face ao chip anterior, introduzindo mtas novidades
 
PS 3.0 = muitas novidades?! :lol:

Esse video n é imagem do jogo oficial, mas foi sim uma demo feita pela Nvidia, para demontrar o PS 3.0
Logo no jogo n vais notar tantas mudanças.

Claro k mesmo para isso vai ser necessario o patch para o farcry o directx 9.0c e claro os drivers novos da Nvidia.
De preferência uns milagrosos k aumentem a performance em 25% para esta apanhar a X800XT

Claro k eu já n acredito no pai natal mas ainda ha muitos meninos por aki k acreditam. :zzz
 
Back
Topo