ATI X1000 NÃO é 100% compatível SM 3.0 !

DJ_PAPA disse:
FP32 pelo pipline embora ainda nao seja suportado no direct_X actual, vais ser suportado futuramente. (Fulltime/fullspeed fp32 processing for floating point pixel formats)

Podes colocar aqui o link com o site que diz isso?
Fp32 é suportado pela nVidia desde as 5XXX. Internamente é FP32, ao contrario das R300 que internamente funcionavam em FP32, mas o output era feito em FP24. FP32 É obrigatório no SM3.0.


DJ_PAPA disse:
A ATI suporta outro tipo de AA (adaptative AA) que tem uma qualidade igual á da Nvidia. Logo ir por ai, nao....

O adaptative AA é igual ao Transparency AA
MSAA+SSAA é algo que é suportado há bastante tempo nas nVidias e que não existe nas Ati.
O formato V8U8 (é algo com os mesmo objectivos do 3Dc) é outro exemplo que só a nVidia suporta.
Isto são só exemplos de como é possivel fazer uma lista dessas com as G70.

Os 3 modos de HDR que estão na lista são FP16, Int16 e Int10. A nVidia suporta FP16, que é que se usa. É o que tem melhor qualidade.
Alias, metam aqui um exemplos a usar Int16 e Int10 para ver como fica....
 
Última edição:
http://www.anandtech.com/video/showdoc.aspx?i=2552&p=2

To provide a quick overview of the new lineup from ATI, here are the key featuers of the X1000 series.

* Fabbed on TSMC's 90nm process
* Shader Model 3.0 support
* Fulltime/fullspeed fp32 processing for floating point pixel formats
* New "Ring Bus" memory architecture with support for GDDR4
* Antialiasing supported on MRT and fp16 output
* High quality angle independent Anisotropic Filtering
* AVIVO and advanced decode/encode support

Tb de realçar o novo ring-bus um pouco parecido ao usado na Creative com a X-FI que permite fazer determinado tipo de calculos muito interessantes.
Numa universidade dos EUA estao ja a estudar o uso da X1800XT para um determindo tipo de calculos, o calculo de fisicas parecido ao usado no Ageia é possivel neste VPU e é possivel pôr o Folding@Home a rodar na grafica com resultados 2.5x melhores que um P4 ainda sem qq optimizaçao:
http://techreport.com/onearticle.x/8887
 
Repara no que eles dizem a seguir em relação ao FP32:

The real advantages of SM3.0 come in the form of number of registers, branching, relaxed instruction limits, efficiency and accuracy (fp32 support is required). And all these features are now supported top to bottom on both NVIDIA and ATI hardware.
 
Suportar Int16 e Int10 HDR é inútil, tal como suportar 10 bits de cor, tal como o Open EXR, tal como AA+HDR nesta geração. É 8 ou 80.

Discutam features importantes, TUDO o que é mesmo importante está nas duas marcas. Talvez MSAA+SSAA seja importante para mim, mas de resto andam taco a taco.

DJ_PAPA: Lê o que a malta escreve pá, fp32 a 100% já é do tempo da maria caxuxa.
 
ptzs disse:
Suportar Int16 e Int10 HDR é inútil, tal como suportar 10 bits de cor, tal como o Open EXR, tal como AA+HDR nesta geração. É 8 ou 80.

Axo o AA+HDR bastante util, principalmente para o ppl k tem monitores TFT, estes n têm muita resolução maxima, logo para aumentar a qualidade grafica à k ligar AA, e é perfeitamente possivel jogar com AA+HDR. ;)
 
Zar0n disse:
Axo o AA+HDR bastante util, principalmente para o ppl k tem monitores TFT, estes n têm muita resolução maxima, logo para aumentar a qualidade grafica à k ligar AA, e é perfeitamente possivel jogar com AA+HDR. ;)

Seria, se a gama de cores suportada pelos LCD's fosse maior, mas a verdade é que é muito menor do que até um vulgar CRT. E quando existe um LCD com capacidades semelhantes, custa um balúrdio (não é simplesmente "caro").
 
Voces devem ter assim uma vista XPTO ... pk eu na noto diferenças de cores entre o TFT do meu portatil e o meu CRT ... mas pronto ...
 
Madril disse:
Voces devem ter assim uma vista XPTO ... pk eu na noto diferenças de cores entre o TFT do meu portatil e o meu CRT ... mas pronto ...

Sim, mas o HDR, num painel LCD de 6 ou 8 bit, não se nota muita diferença.
Não te esqueças que é uma simulação do brilho do Sol, com um dispositivo artificial, infinitamente mais ténue.
 
blastarr disse:
Seria, se a gama de cores suportada pelos LCD's fosse maior, mas a verdade é que é muito menor do que até um vulgar CRT. E quando existe um LCD com capacidades semelhantes, custa um balúrdio (não é simplesmente "caro").
??
É obvio que AA+HDR é importante. Quer seja em LCD ou CRT.
Quem dá 500 euros por uma placa tem o direito de ter a maxima qualidade possivel.
 
Madril disse:
Voces devem ter assim uma vista XPTO ... pk eu na noto diferenças de cores entre o TFT do meu portatil e o meu CRT ... mas pronto ...

Basta pores os dois monitores a preto, o CRT dá preto o TFT não :D

blastarr disse:
Seria, se a gama de cores suportada pelos LCD's fosse maior, mas a verdade é que é muito menor do que até um vulgar CRT. E quando existe um LCD com capacidades semelhantes, custa um balúrdio (não é simplesmente "caro").

Então para defender a Nvidia decidiste k o HDR é totalmente inutil pra kem tem TFT? :)
 
Zar0n disse:
Axo o AA+HDR bastante util, principalmente para o ppl k tem monitores TFT, estes n têm muita resolução maxima, logo para aumentar a qualidade grafica à k ligar AA, e é perfeitamente possivel jogar com AA+HDR. ;)

Acho que aqui há uma certa confusão, eu jogo com AA e com HDR. O que esta r520 faz é AA ao próprio HDR ou estou enganado?

É que no DoD eu defino AA e defino HDR e aparece tudo o que estava à espera, portanto concluo que AA+HDR já existe em nV's, não existe é AA ao HDR. Será?

Se for o que estou a pensar é uma feature da treta. Sinceramente fico cego só de olhar para o HDR, quanto mais notar AA naquele efeito.
 
Última edição:
DJ_PAPA disse:
7800GTX fails Shader Model 3.0 test

http://www.theinquirer.net/?article=27084
LOL :lol: :lol: :lol: :004:

Devias ler o que postas antes de vir com esses comentários...lol
Só fazes figura de urso.
Falha o teste de PS 1.1 e 1.3, mas passa o 1.4 e o 2.0 ? lol

Drivers 66.81 ("16 months old"), sem suporte para a G70, e teste DCT mais recente com drivers antigos na 6800 Ultra (duh...:rolleyes: )

E porque não usar os drivers genéricos da MS para o windows, devem dar muito suporte para aceleração 3D, não ? lolol

Pensas que todos os drivers são iguais ?

Tenta usar um destes drivers mais game-like numa QuadroFX e correr o SPECviewPerf...
Depois tenta usar drivers especiais para Quadro's e corre o 3DMark'05...
 
Última edição:
Acho melhor leres tu tudo antes de mandares postas de pescada tb...

"A bold claim indeed. So, we have taken our 7800GTX and ol' trusty 6800 Vulgaris for a spin. We have downloaded drivers from the slide - ForceWare 66.81 - old as a bible, but ATI likes to use these in their slides - current WHQL-certified babies ForceWare 78.01 and Rel80 beta-hoping-to-be-WHQL driver, 81.85. We have used Windows XP Professional in both 32- and 64-bit tastes. For 64-bit, 78.01 and 81.84 were used."
 
Achei piada a esta parte do artigo. Acho que o roto critica o nú e vice-versa. lol.

For a company that is touting "Shader Model 3.0 Done Right!" spinner talk, it's odd to see a Vertex Shader 3.0 feature (Vertex Texturing) gone from their X1K series.

The best part is, ATI's Xbox 360 GPU dubbed Xenos fully supports the missing feature. Vertex Texturing is even used in Xenos presentations as one of the strengths of that unified architecture. But X1K will have none of it.

Yes, Vertex Texturing is a DirectX 9.0c feature for "Done Right!", so don't flood my inbox with claims it isn't. Link is provided in our complimentary L'INQ section. ATI did offer an alternative, called R2VB (Render To Verex Buffer), and that feature is supported by both Xenos and X1K GPUs.
 
"Each and every tested driver revision acted the same in Pixel Shader 3.0 test."

talvez o urso tenha sido outro

silver

antes roto que nu , e claramente ve se quem esta roto e quem está nu ;)


ahahah priceless
 
Última edição:
blastarr disse:
Devias ler o que postas antes de vir com esses comentários...lol
Só fazes figura de urso.
Falha o teste de PS 1.1 e 1.3, mas passa o 1.4 e o 2.0 ? lol

Drivers 66.81 ("16 months old"), sem suporte para a G70, e teste DCT mais recente com drivers antigos na 6800 Ultra (duh...:rolleyes: )

E porque não usar os drivers genéricos da MS para o windows, devem dar muito suporte para aceleração 3D, não ? lolol

Pensas que todos os drivers são iguais ?

Tenta usar um destes drivers mais game-like numa QuadroFX e correr o SPECviewPerf...
Depois tenta usar drivers especiais para Quadro's e corre o 3DMark'05...
Pois como já se disse aqui o urso se calhar é outro...

Apesar de ser uma notícia na minha opinião completamente inútil (xiça.. 150 horas gastas numa caça aos gambosinos..), ao menos ele postou dentro de uma thread já existente.. não foi criar de propósito uma thread com um título enganoso com letras em caps e tal, neh?



Ontopic: de certeza que os developers sabem disto.. e de certeza absoluta que estas "diferenças de métodos" já existiam em arquitecturas anteriores, desde que existe o T&L.. O mau (talvez não "mau" porque pelos vistos para alguns funciona.. mas talvez "incorrecto"?) marketing e desonestidade de ambas as companhias é que está a trazer estas novelas à baila..
 
Só falta dizer em que parametros falha o teste de 36 horas.

De qualquer maneira fico à espera dos resultados imaculados da X1800XL. Mas ao contrário dos fanATIcs aqui do bairro não vou achar piada nenhuma a falhanços deste estilo.
 
Não sei se é assim tão inútil saber que as 7800 não usam nem PS 1.2 e 1.3, pois ainda se podem jogar jogos antigos, ou não?

Além disso, a ATI implementou um workaround ao Vertex Texturing, enquanto a nVidia não o fez nos testes em que falha. Acho que isso sim, é mau.
 
Zealot disse:
Não sei se é assim tão inútil saber que as 7800 não usam nem PS 1.2 e 1.3, pois ainda se podem jogar jogos antigos, ou não?

Além disso, a ATI implementou um workaround ao Vertex Texturing, enquanto a nVidia não o fez nos testes em que falha. Acho que isso sim, é mau.
Humm... Acho que se a 7800GTX não corresse por exemplo o Morrowind, C&C Generals, Colin Mcrae 04 ou Flatout alguem já se tinha queixado de certeza..

Provavelmente emula a 99,9% os PS 1.1 e 1.3, mas não segundo os critérios do dito teste.
 
Back
Topo