ATi is cheating in Filtering!

RAGE3D

Here's ATI's official response to the subject:

There has been a lot of discussion about our trilinear filtering algorithms recently.

The objective of trilinear filtering is to make transitions between mipmap levels as near to invisible as possible. As long as this is achieved, there is no "right" or "wrong" way to implement the filtering.

We have added intelligence to our filtering algorithm to increase performance without affecting image quality. As some people have discovered, it is possible to show differences between our filtering implementations for the RADEON 9800XT and RADEON X800. However, these differences can only be seen by subtracting before and after screenshots and amplifying the result. No-one has claimed that the differences make one
implementation "better" than another.

Our algorithm for image analysis-based texture filtering techniques is patent-pending. It works by determining how different one mipmap level is from the next and then applying the appropriate level of filtering. It only applies this optimization to the typical case - specifically, where the mipmaps are generated using box filtering. Atypical situations, where each mipmap could differ significantly from the previous level, receive no optimizations. This includes extreme cases such as colored mipmap levels, which is why tests based on color mipmap levels show different results. Just to be explicit: there is no application detection going on; this just illustrates the sophistication of the algorithm.

We encourage users to experiment with moving the texture preference slider from "Quality" towards "Performance" - you will see huge performance gains with no effect on image quality until the very end, and even then, the effect is hardly noticeable. We are confident that we give gamers the best image quality at every performance level.

Microsoft does set some standards for texture filtering and the company's WHQL process includes extensive image quality tests for trilinear filtering and mipmapping. CATALYST passes all these tests - and without application detection, which could be used if you wanted to get a lower-quality algorithm go undetected through the tests.

Finally, ATI takes image quality extremely seriously and we are confident that we set the bar for the whole industry. We don't undertake changes to our filtering algorithms lightly, and perform considerable on-line and off-line image analysis before implementing changes. This algorithm has been in public use for over a year in our RADEON 9600 series products, and we have not received any adverse comments on image quality in that time. If anyone does find any quality degradation as a result of this algorithm, they
are invited to report it to ATI. If there is a problem, we will fix it.
 
isto é só para ver como a "máquina de marketing" da nvidia tenta de todas as maneiras possíveis "lixar" a ati .... nem mesmo assim ......

"Our algorithm for image analysis-based texture filtering techniques is patent-pending" --> logo não se trata de cheat (ou será que vai haver patentes para cheats? :rolleyes: ), "This algorithm has been in public use for over a year" e só agora é que é um problema? (para a nvidia é capaz de ser visto não o terem implementado :cool: ) .... na proxíma geração de placas, a nvidia é capaz de adoptar este sistema e ai os "meninos" que falaram hoje vão estar bem caladinhos ....

.... mais uma coisinha .... se ps3.0 é o mesmo que ps2.x mas com execução/programação mais simples, temos que ati mais rápida que nvidia mesmo sendo 2.x contra 3.0 então como podem dizer que ps3.0 é melhor que ps2.x? talvez quando aparecer numa placa next gen made by ati? :-D
 
Última edição:
Disclamer: Não sou apoiante nem da nVidia nem da ATI. Tou-me a lixar para o nome da placa desde q ofereçam bons preços/performance na gama média. O meu percurso tem sido: Kyro 2 -> GF3 Ti200 -> Radeon 8500 -> GF4 Ti4200 -> Radeon 9500 (sempre a saltar).
ATI ou nVidia fanboys podem sentar-se num dildo e não chatear s.f.f. :D


Boa resposta da ATI. :003:
 
bem o meu post anterior pode parecer de um fanboy, mas na realidade só tive por enquanto trident, nvidia ou s3 como gráfica ..... trident 1mb -> tnt -> tnt2 -> savage -> geforce drr -> ti4200 -> .... não há guito :D

mas tenho "seguido" o caminho da ati e certamente seria a minha escolha para uma nova placa ....
 
Melga disse:
isto é só para ver como a "máquina de marketing" da nvidia tenta de todas as maneiras possíveis "lixar" a ati .... nem mesmo assim ......

É verdade. A nVidia é uma mázona, tadinha da Ati, que injustiça.

"Our algorithm for image analysis-based texture filtering techniques is patent-pending" --> logo não se trata de cheat (ou será que vai haver patentes para cheats? :rolleyes: ), "This algorithm has been in public use for over a year" e só agora é que é um problema? (para a nvidia é capaz de ser visto não o terem implementado :cool: ) .... na proxíma geração de placas, a nvidia é capaz de adoptar este sistema e ai os "meninos" que falaram hoje vão estar bem caladinhos ....

É tão cheat como as da nVidia. Ambas as empresas tentam aumentar os niveis de performance, retirando processamento desnecessário e tentando que isso não afecte a qualidade de imagem. Algumas soluções são melhores que outras. Patent-pending não quer dizer nada. Eu também posso submeter uma patente para um descascador/ralador de bananas automático que isso não lhe dá legitimidade técnica.

... mais uma coisinha .... se ps3.0 é o mesmo que ps2.x mas com execução/programação mais simples, temos que ati mais rápida que nvidia mesmo sendo 2.x contra 3.0 então como podem dizer que ps3.0 é melhor que ps2.x? talvez quando aparecer numa placa next gen made by ati? :-D

Baralhaste tudo. A ATi é mais rápida a correr com ps1.1 e 2.0. As comparações entre as placas tem sido feita com a mesma versão de shaders. O link e post anterior fala das primeiras impressões visuais de alguém que já viu o Far Cry a correr em PS3.0. Aparentemente melhoraram a qualidade de imagem. Resta saber se seria possivel fazer o mesmo com PS2.0 e placas cuja máxima versão seja esta.
 
iJFerreira disse:
As *optmizações* que a Nvidia faz depende da aplicação (jogo) que está
a correr ?

Ya, true. Como no caso do "Farcry.exe->Fartcry.exe". A nVidia justificou isso com um bug no jogo relativo ao z-culling, que provocava uma considerável baixa na performance. Fizeram a "correcção" com os drivers 61.xx.

Apesar de tudo penso que ficaram outros bugs visuais por resolver. O desejável seria não ser preciso estes "remendos" através dos drivers e com a "detecção do jogo" e sim patches do próprio, mas o importante é que ficasse resolvido e sem prejuizo da qualidade de imagem.

Não é nada abonatório para a nVidia detectar-se um problema deste género, com este tipo de resolução, logo num jogo que faz parte do programa "The way it is meant to be played", mas como estamos perante uma arquitectura nova, tem desculpa.

EDIT: Li agora isto no Inquirer:
We pointed out earlier that we saw some references to some exe files in ATI drivers. ATI's response to this was that one that "the latest Catalyst release notes clearly highlight that these .exe files correspond to titles that have had AA disabled".

O resto da "noticia"

Nada disto me surpreende. Acho que acaba por fazer sentido. Nem a arquitectura das gráficas, nem os drivers, nem o motor dos jogos são uma "orquestra" fácil de pôr a tocar em "uníssono".

Convém sempre que alguém investigue as optimizações, para impedir abusos, mas não vale a pena crucificarmos nenhuma das empresas...
 
Última edição:
Halo tb, se não me engano.
Mas agora há uma box para desactivar o "trilinear Opti." (que era outro dos "problemas")

Quanto a este caso, não sei muito bem o que pensar. O que a Ati diz é que:
- Não é dependente de uma aplicação
- A imagem pode ser diferente, mas não é pior ( e ainda não ouvi ninguem dizer o contrario )
- Não é um cheat, é uma optimização.
- It's patent pending (mas nunca revelaram, nem há um nome para esta optimização)

Cheat ou não, uma coisa é certa, não vale a pena comparar com o caso da nVidia, pq são duas coisas diferentes.
Agora alguem que faça um artigo sobre isto com comparações de IQ.

EDIT: Talvez o melhor para a Ati é meter uma checkbox On/Off para que as pessoas tenham opção.
 
SilveRRIng disse:
mas como estamos perante uma arquitectura nova, tem desculpa.

Tem...?
Porquê? Não está à venda, ou ainda é uma versão beta, e neste caso estão a vender a versão beta. Pensava que a nVidia só lançava produtos acabados.
 
Tafinho,

de certa forma isto está relacionado com o que disseste. Estava no meu post anterior, editado.

SilveRRIng disse:
EDIT: Li agora isto no Inquirer:

"We pointed out earlier that we saw some references to some exe files in ATI drivers. ATI's response to this was that one that "the latest Catalyst release notes clearly highlight that these .exe files correspond to titles that have had AA disabled"

O resto da "noticia"

Nada disto me surpreende. Acho que acaba por fazer sentido. Nem a arquitectura das gráficas, nem os drivers, nem o motor dos jogos são uma "orquestra" fácil de pôr a tocar em "uníssono".

Convém sempre que alguém investigue as optimizações, para impedir abusos, mas não vale a pena crucificarmos nenhuma das empresas...
 
Seja como for, deu para calar as bocas dos "FanBoys" que crucificaram a Nvidia e continuam a insistir no mesmo tema.


Eu já fui um deles!
 
Tanta coisa por causa de uns driver!!!!

A ATI nao fez report nenhum a aumentos de performance caso nao tenham reparado, por isso pode ter sido bug ou qualquer coisa!!!

Nao iam aumentar bué a performance e nao dizer nada!!!!

Mas a Nvidia é que é. Essa fazia os cheats e depois nos reports vinha:
aumentos de performance em 50% , lololol


A ATI com isto tudo nao fez report de aumentos de performance.
A Nvidia quando fazia cheats era logo em primeira pagina aumentos brutais de performance.

Alias quando eu vi os 4.5 e notei que no report nao tinham aumentos de performance e nem os instalei. Mas depois vieram com a conversa que aumentava os frames e eu nao acreditei , pq qualquer aumento de performance era logo reportado nos drivers e desta vez nao foi, por isso...... se nao gostam destes, façam como eu e nao os instalem....

Raptor, por + que tentes é excusado andares a dar na ATI, pq quem fez asneirada da grossa foi a Nvidia e prontos, foi....... o que foi..... é a realidade.
 
DJ_PAPA disse:
Tanta coisa por causa de uns driver!!!!

A ATI nao fez report nenhum a aumentos de performance caso nao tenham reparado, por isso pode ter sido bug ou qualquer coisa!!!

Nao iam aumentar bué a performance e nao dizer nada!!!!

Mas a Nvidia é que é. Essa fazia os cheats e depois nos reports vinha:
aumentos de performance em 50% , lololol


A ATI com isto tudo nao fez report de aumentos de performance.
A Nvidia quando fazia cheats era logo em primeira pagina aumentos brutais de performance.

Alias quando eu vi os 4.5 e notei que no report nao tinham aumentos de performance e nem os instalei. Mas depois vieram com a conversa que aumentava os frames e eu nao acreditei , pq qualquer aumento de performance era logo reportado nos drivers e desta vez nao foi, por isso...... se nao gostam destes, façam como eu e nao os instalem....

Raptor, por + que tentes é excusado andares a dar na ATI, pq quem fez asneirada da grossa foi a Nvidia e prontos, foi....... o que foi..... é a realidade.

Mas tu já te deste ao trabalho de ler a resposta da ATI, o artigo e a thread no B3d?

Isto existe desde os Catalyst 3.4

Não é bug, é feature. Está na resposta da Ati.
Falta saber se é considerado cheat ou optimização.
 
Engraçado é ver pessoal que por qualquer mudança de performance gritam CHEAT quando é a nvidia e agora é o que se vé..

dualidade de valores? nahh cá agora :rolleyes:

E aposto que ninguem dos ditos cujos tem acções da ati ou nvidia logo não percebo pk tanto fanatismo (infundado muitas vezes)

...
 
Rudzer disse:
Engraçado é ver pessoal que por qualquer mudança de performance gritam CHEAT quando é a nvidia e agora é o que se vé..

dualidade de valores? nahh cá agora :rolleyes:

E aposto que ninguem dos ditos cujos tem acções da ati ou nvidia logo não percebo pk tanto fanatismo (infundado muitas vezes)

...

Na mouche!!

Por acaso é um exercício "psicologico-sociólogo" engraçado.

DJ PAPA,

A unica diferença é que a ATI sabe fazê-las. Faz modificações com impacto na performance, como eles próprios disseram, e não diz nada a ninguém. Deixam que os habituais "reviewers" se apercebam das melhorias e façam eles a "publicidade", ficando com um ar mais imparcial tipo:

"- Os gajos são mesmo bons, melhoram as coisas e nem dizem nada, de tão natural que isso é para eles. São humildes. Adoro a ATI!!" ;)
 
Rudzer disse:
Engraçado é ver pessoal que por qualquer mudança de performance gritam CHEAT quando é a nvidia e agora é o que se vé..

dualidade de valores? nahh cá agora :rolleyes:

E aposto que ninguem dos ditos cujos tem acções da ati ou nvidia logo não percebo pk tanto fanatismo (infundado muitas vezes)

...

Pq se calhar não se pode comparar o que não é comparavel.
São dois casos diferentes. E no caso da nVidia não foi logo gritar "Cheaters!!!". Quantos artigos houve? Varios. Só depois é que se chamou cheaters.
Neste caso não há sequer testes feitos ao IQ.
 
Porque com screenshots não se vai lá, toda a gente diz que reduz a qualidade de imagem, pode é não se notar sem ser ingame. É esse o problema do Aniso. Andar a comparar screenshots é ridículo.

Caso não tenham reparado isto é tudo uma treta, sempre disseram que só a nVidia tinha mecanismos de detecção, afinal a ATi tb tem, só que vai ser patenteado!

Será que fazia tanta diferença o "brilinear" da nVidia? Não, mas criou uma onda de indignação tremenda.

O problema aqui é que hoje em dia quase todos os grandes sites de 3D são ATi biased, teve de ser um site alemão a revelar isto, mesmo assim a maior parte dos sites nem sequer dão valor a esta questão, quando em relação à nVidia publicaram 3 ou 4 artigos cada um.

Um gajo pa investigar sobre isto tem de ir aos forums, pq sites a vasculhar o lixo da ATi são mt poucos. Se não fosse aquele site alemão, ninguém saberia nada disto.
 
O homem da conspiração, ao vivo num forum perto de si.

:x2:

Será pq os sites procuram bases mais sólidas antes de virem para a rua com " ATi is cheating in Filtering!" naaa. Isto faz parte de um plano maquiavélico de ocultação de todos estes dados, e a prova disso é que hoje ainda ninguem sabe de nada, ninguem fala disto, nem a ati respondeu logo passadas 48h.

:fart:
 
ptzs, acho que em algumas coisas tens razão, há sites um bocado biased para o lado da Ati, mas qd foi o caso da nVidia tinhas montes de sites nVidia biased ([H], toms, etc) e não foi por isso que não apareceram os artigos.

O que eu acho é que os sites não querem fazer o mesmo erro da Driverheaven com o caso da 6800 no 3dmark. A montanha pariu um rato.

Os grandes sites estão de olho na questão. Olha o caso do Toms (odeio o site, mas ok). Fizeram um nivel no Q3 para tentar provar e quando parecia que tinham a solução, descobriram que dava o mesmo resultado nas outras placas. Voltar à estaca zero......

atifilter2.png


Mas continua tudo na mesma. Cheat ou Optimização? Se for cheat os artigos vão aparecer.
 
Back
Topo