Assassin Creed- Primeiro jogo DX_10.1 - Benchmark

DJ_PAPA

Power Member
3870x2.jpg


DX10 vs. DX10.1 disse:
1. Altair has certainly come bearing gifts-based on what we've seen above, it seems rather clear that Assassin's Creed is the first title to implement DX10.1.

2. The impact that DX10.1 has is quite frankly greater than expected. A 20% improvement in AA performance is very impressive.
http://www.rage3d.com/articles/assassinscreed/index.php?p=2
 
Última edição:
Estou a gostar disso. Se todos os jogos tiverem aumentos como esse, o DX10.1 pode bem ser a "salvação" da AMD face às actuais nVidia.
 
Pa o site n é do mais imparcial a nivel de gabar a ATI, mas por outro lado até axo que têm razão eu tou a correr o jogo tão bem que nem me apercebi que como tenho o SP1 este estava a correr em DX10.1.
O jogo é mt fluido defacto, e é tão viciante que um gajo nem repara nestas cenas! :D
Então e teste com as Geforce ai, para ver se defacto estas tb tiram partido do DX10.1!?
 
Eles testaram com uma 2900xt que não suporta dx10.1 e não ouve ganhos por ter ou não ter SP1 instalado.

Acho que mesmo o site tendo fama de pro ATi, documentou bem os testes.

Já agora Obrigado a Ubisoft por um bom porte, mesmo com o PC que tá no my sistem corro o jogo fluido em Medium
 
Assim sendo acho que agora compensa comprar a HD3870 face à 9600GT/8800GS, de caras. Agora a 8800GT, precisava de mais testes :P
 
quanto ao jogo.. nunca pensei que tivesse DX10.1.. gostava era de ver mais testes e mais esclarecedores..
 
Última edição pelo moderador:
mas isso é DX10 ou DX10.1..
é que é isso que eu não estou a perceber.. é porque o jogo traz um executavel para DX10 e outro para DX9.. mas não refere nada quanto ao DX10.1.. nem na documentação.. ou estarei a ver mal?
 
mas isso é DX10 ou DX10.1..
é que é isso que eu não estou a perceber.. é porque o jogo traz um executavel para DX10 e outro para DX9.. mas não refere nada quanto ao DX10.1.. nem na documentação.. ou estarei a ver mal?


yep , pelo menos oficialmente não dizem k é dx10.1



Could it be that AC is the first title to support DX10.1?

If that is the case, why was it not actively advertised?



eles na rage3d e que ao desinstalar o Vista SP1 tiveram pior performance no jogo e automaticamente assumiram que o jogo era DX10.1


È normal que tenham pior performance , o service pack 1 veio dar um Boost imenso a todos os niveis , nao acredito que seja DX10.1


cumps
 
Última edição:
eles na rage3d e que ao desinstalar o Vista SP1 tiveram pior performance no jogo e automaticamente assumiram que o jogo era DX10.1


È normal que tenham pior performance , o service pack 1 veio dar um Boost imenso a todos os niveis , nao acredito que seja DX10.1


cumps

então fail.... este jogo não tem DX10.1...

ter mais performance até eu no crysis tenho a DX10... e a minha gráfica nem é decente para jogar este jogo no high.. quanto mais ter DX10.1...
 
Este jogo não é DX10.1-ready.
Mesmo o suporte DX10 é apenas para efeitos cosméticos muito ligeiros, pois é essencialmente um "port" da Xbox 360 (shaders baseados no DX9).

Se repararem, os ganhos acontecem sobretudo na HD3870 X2, o que pode indicar que a instalação original do Vista usada no teste não tinha os patches que melhoram o suporte para Crossfire e SLI que a MS entretanto foi lançando (são apenas marcados como "opcionais" no Windows Update).
No Service Pack 1 esses patches estão finalmente integrados no sistema.
Aposto que um teste com a 9800 GX2 experimentaria ganhos similares, provando que o DX10.1 nada tem a ver com isto.

Isso também explica como a HD2900 XT com o Vista SP1 não ganhou nada (pudera, a placa só tem uma GPU...).
 
Última edição:
então fail.... este jogo não tem DX10.1...

ter mais performance até eu no crysis tenho a DX10... e a minha gráfica nem é decente para jogar este jogo no high.. quanto mais ter DX10.1...

Armed with this knowledge, we went and asked ATi about it, since they're probably in the best position to know whether or not the new API is actually implemented. Here's what they had to say:

"Ubisoft are at the forefront of technology adoption, as showcased with the fantastic Assassin’s Creed title. In this instance our developer relations team worked directly with the developer and found an area of code that could be executed more optimally under DX10.1 operation, thus benefiting the ATI Radeon HD 3000 Series."
.
 
Então certamente não terão problemas em testar uma 9800 GX2 e tirar tudo a limpo quanto ao DX10.1 vs DX10, não é verdade ?
 
Última edição pelo moderador:
Este jogo não é DX10.1-ready.
Mesmo o suporte DX10 é apenas para efeitos cosméticos muito ligeiros, pois é essencialmente um "port" da Xbox 360 (shaders baseados no DX9).

Se repararem, os ganhos acontecem sobretudo na HD3870 X2, o que pode indicar que a instalação original do Vista usada no teste não tinha os patches que melhoram o suporte para Crossfire e SLI que a MS entretanto foi lançando (são apenas marcados como "opcionais" no Windows Update).
No Service Pack 1 esses patches estão finalmente integrados no sistema.
Aposto que um teste com a 9800 GX2 experimentaria ganhos similares, provando que o DX10.1 nada tem a ver com isto.

Isso também explica como a HD2900 XT com o Vista SP1 não ganhou nada (pudera, a placa só tem uma GPU...).



yep , esta tudo relacionado com SP1 mas tb sou da opiniao que nao tem nada a ver com dx10.1

no entanto a HD2900XT nao podia servir como justificação pois a mesma nao suporta dx10.1 (apenas as HD3000)



cumps
 
Última edição:
yep , esta tudo relacionado com SP1 mas tb sou da opiniao que nao tem nada a ver com dx10.1

no entanto a HD2900XT nao podia servir como justificação pois a mesma nao suporta dx10.1 (apenas as HD3000)

Sim, mas as HD3870/50 ficaram "convenientemente" de fora deste teste, para que a ATI pudesse dar alguma resposta oficial no artigo à suposta superioridade do DX10.1 (o que, claramente, não é verdade).
 
E depois a nVidia é que usa "truques"...

Também não acredito que a razão do aumento da performance tenha sido o Dx10.1, até porque o pouco que se sabe acerca dele, é apenas o cumprimento de determinadas normas, e não me parece que nenhuma delas ou tudas em conjunto justifique um aumento de ~20%... :rolleyes:
 
E depois a nVidia é que usa "truques"...

Também não acredito que a razão do aumento da performance tenha sido o Dx10.1, até porque o pouco que se sabe acerca dele, é apenas o cumprimento de determinadas normas, e não me parece que nenhuma delas ou tudas em conjunto justifique um aumento de ~20%... :rolleyes:

Uma das coisas positivas do DX10.1 era o aumento de performance face ao dX10
 
Back
Topo