Assassin Creed- Primeiro jogo DX_10.1 - Benchmark

http://forum.beyond3d.com/showthread.php?t=47686

Morgoth the Dark Enemy disse:
Scali disse:
You should be able to scan the binary for the call that creates the Direct3D 10.1 object. That will tell you 100% sure if it attempts to open a DX10.1 device.
Does it try to call D3D10CreateDevice1() or D3D10CreateDeviceAndSwapChain1()?
The parameter with the SDK version number could also clue you in on what SDK they compiled it with.

Both are present. There are also calls for d3d10_1.dll, and other interesting thingies. But I don't think Ubi would appreciate/would've appreciated me posting their disassembled exe here or on R3D, so curious folks should do it on their own.

ATi confirmed: Assassin's Creed uses D3D 10.1

While the console version of Assassin's Creed from the optical features more or less identical with the Direct3D 9-version on the PC, so it is not the developers can take, in addition a Direct3D 10-path in their game to implement, among other things, with a shade better representation points.

. But that was apparently not enough, because Assassin's Creed, without really know at all besides the modern graphics cards available Direct3D 10-path beyond the Direct3D 10.1 API, which until now only on Radeon-HD-3000 - cards from ATi can be used. Zumindest berichten das die Kollegen von Rage3D . At least report the colleagues of Rage3D.Because there could be a Radeon 3870 HD X2 a performance difference between Windows Vista and Windows Vista Urpsrungszustand with installed Service Pack 1 note.

Besides various updates, it also would be possible that Assassin's Creed has added speed, the Service Pack 1 with the first Direct3D API therefore 10.1. Thus, the presumption of course, suggest that UbiSoft secretly, quietly Direct3D 10.1 a path in the game is implemented. In addition to a performance increase, based on a maximum performance increase of 25 percent, on average, it is still good 18.5 percent (with the difference from section to section may vary), amounts, it could also improve the anti-aliasing identified.

While these on an ATi graphics card in Windows Vista without the Service Pack 1 does not work in every scene, the anti-aliasing in Direct3D mode is 10.1. That is entirely possible because the developer with the new API receives some additional opportunities, smoothing the edges in a different way.A comparison sample to a GeForce 8800 GTX, we can confirm that the anti-aliasing at exactly the same place on a Direct3D 10-graphics card is not working.

Finally, we have ourselves to ATi asking for help. And in fact, Assassin's Creed uses a Radeon-HD-3000 card Direct3D 10.1 capabilities of the 3D accelerator. Thus, the graphics card directly to the "depths Buffer" (Depth buffer, also known as a Z-buffer for visibility tests) access and the calculation results in the shader units. In Direct3D 10-mode, the required depth values first in a "buffer Color" and only then by the ALUs out, as these under Direct3D 10 is not directly on the depth buffer access.

Why UbiSoft is currently being concealed, but remains unclear. . From the standpoint of pure advertising, it would Direct3D 10.1 certainly an interesting feature.
http://www.google.com/translate?u=h...s_creed_d3d_101/&langpair=de|en&hl=en&ie=UTF8
 
Este jogo não é DX10.1-ready.
Mesmo o suporte DX10 é apenas para efeitos cosméticos muito ligeiros, pois é essencialmente um "port" da Xbox 360 (shaders baseados no DX9).

Se repararem, os ganhos acontecem sobretudo na HD3870 X2, o que pode indicar que a instalação original do Vista usada no teste não tinha os patches que melhoram o suporte para Crossfire e SLI que a MS entretanto foi lançando (são apenas marcados como "opcionais" no Windows Update).
No Service Pack 1 esses patches estão finalmente integrados no sistema.
Aposto que um teste com a 9800 GX2 experimentaria ganhos similares, provando que o DX10.1 nada tem a ver com isto.

Isso também explica como a HD2900 XT com o Vista SP1 não ganhou nada (pudera, a placa só tem uma GPU...).

offtopic: ya, eu sei..morder a lingua dói..

ontopic: vou instalar o vista e o sp1 so mm pa correr este jogo, estou mortinho por confirmar esses boosts eu mesmo :004:
 
sinceramente.. eu não vejo, opticamente nenhuma diferença entre o DX9 e DX10.. até tirei umas SS da mesma imagem e comparei e são exactamente identicas..

agora já nao as tenho pq formatei o pc de tarde.. mas quando voltar a instalar volto a verificar..

o jogo até pode estar ligado com as bibliotecas DX10.1... mas talvez so para efeitos de optimização da performance @ DX10..

visualmente ainda há de vir o jogo que realmente compense o uso do DX10..

Crysis e Call of Juarez são os jogos neste momento que se notam mais diferenças..
 
È normal que tenham pior performance , o service pack 1 veio dar um Boost imenso a todos os niveis , nao acredito que seja DX10.1


cumps
então fail.... este jogo não tem DX10.1...

ter mais performance até eu no crysis tenho a DX10... e a minha gráfica nem é decente para jogar este jogo no high.. quanto mais ter DX10.1...
yep , esta tudo relacionado com SP1 mas tb sou da opiniao que nao tem nada a ver com dx10.1

no entanto a HD2900XT nao podia servir como justificação pois a mesma nao suporta dx10.1 (apenas as HD3000)



cumps
Sim, mas as HD3870/50 ficaram "convenientemente" de fora deste teste, para que a ATI pudesse dar alguma resposta oficial no artigo à suposta superioridade do DX10.1 (o que, claramente, não é verdade).
E depois a nVidia é que usa "truques"...

Também não acredito que a razão do aumento da performance tenha sido o Dx10.1, até porque o pouco que se sabe acerca dele, é apenas o cumprimento de determinadas normas, e não me parece que nenhuma delas ou tudas em conjunto justifique um aumento de ~20%... :rolleyes:


HD_3870_8800_GT_SP1.jpg

Assassin's Creed 8800 GT against HD 3870: Thanks to Service Pack 1 and D3D 10.1 at the Radeon kantengeglättet more areas than the 8800GT.

HD_3870_SP1_on_off.jpg

Assassin's Creed HD 3870: Thanks to Service Pack 1 and D3D 10.1 effect smoothing the edges to more areas than without SP1.

Single HD3870 ainda teve mais ganhos que a X2:
SP1_vs_no-SP1_1.PNG


http://translate.google.com/transla...PCGH-Praxistest/&langpair=de|en&hl=de&ie=UTF8

Mais 2 notas:
- Vai sair um patch para remover o DX_10.1 do jogo.
- Sairá um segundo patch para implementar o DX_10.1 e SM4.1 de uma forma segundo eles mais correcta, isto é, o renderpath será todo SM 4.1 e não apenas umas parte.
What comes next?
The upcoming first patch for Assassin's Creed is the SM4.1 path remove mentioned as a reason the developers an error while calculating phase of the post-processing. This bug will also be responsible for why the Radeons so popular. On request from Ubisoft man told us that the SM4.1-Renderpfad in a second patch to add. Detailed answers on the issue, we expect this week.
http://translate.google.com/transla...PCGH-Praxistest/&langpair=de|en&hl=de&ie=UTF8

Anyway depois de tanto comentários a difamar a tread, inclusive a dizer que era mentira sem qualquer base para tal comentário, afinal o jogo usa DX_10.1, o DX_10.1 melhora substancialmente a performance em AA e melhor substancialmente a qualidade de imagem em AA.
 
Última edição:
Assassin's Creed actually supports the new DirectX 10.1. This was first noted by Rage3D in this article, and has been confirmed by Ubisoft here. The implementation of DX10.1 only benefits people with Vista SP1 and a DX10.1 graphics card (i.e. ATI HD3000 series or newer), and as explained in the link above, much of the additional performance benefits in DX10.1 come from the fact that it removes a render pass. Ubisoft will be removing DX10.1 support and reworking it in a future patch.
@tweakguides
 
Assassin's Creed Gameplay Performance and IQ

Assassin’s Creed is the first game to support DirectX 10.1! Is AMD's ATI Radeon HD 3870 series GPU now competitive? It seems that thanks to DX 10.1, yes. But is Ubisoft taking that advantage away from 3800 series card owners?
http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==

Comparação de performance, qualidade de imagem e fala das vantagens em ter SP1-> DX_10.1 numa HD 3000.

Tb fala dos negocios da nvidia com a Ubisoft e é possivel que a Nvidia teja por tras da remoção do DX_10.1 por um patch comprando tempo ate a saida do 2º patch com DX_10.1 outra vez para quando ja tiver as 9900 no mercado com DX_10.1.
No final de tudo demostra-se muito rapidamente que com um simples secção de codigo em DX_10.1 aumenta em 20% a performance com AA. O que ta muito longe das previsões de muitos astrólogos que diziam que o DX_10.1 nao fazia nada. Era so markting e não adiantava nada.
 
Última edição:
Assassin's Creed Gameplay Performance and IQ


http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==

Comparação de performance, qualidade de imagem e fala das vantagens em ter SP1-> DX_10.1 numa HD 3000.

Tb fala dos negocios da nvidia com a Ubisoft e é possivel que a Nvidia teja por tras da remoção do DX_10.1 por um patch comprando tempo ate a saida do 2º patch com DX_10.1 outra vez para quando ja tiver as 9900 no mercado com DX_10.1.
No final de tudo demostra-se muito rapidamente que com um simples secção de codigo em DX_10.1 aumenta em 20% a performance com AA. O que ta muito longe das previsões de muitos astrólogos que diziam que o DX_10.1 nao fazia nada. Era so markting e não adiantava nada.

Por mais que especules, dificilmente virás a saber se o Dx10.1 realmente aumenta os 20% de performance ou se o "rendering pass" a que a Ubisoft se refere (e não um site de reviews, nem um fórum biased da ATI, nem o v_rr) está por trás desse mesmo aumento.

Depois, se a nVidia está de facto a injectar guita na Ubisoft, porque é que não lhes pediu para NÃO lançarem nada acerca do DX10.1 até eles próprios terem suporte por hardware? Ah, injectaram a guita só depois porque um fórum biased da ATI desinstalou o SP1 e viu que a 3870X2 perdeu 20% de performance.

Que comédia, sinceramente...

BTW:
In Assassin's Creed, the AMD GPU based video card we tested suffers from a bug, which effectively disables AF, even if the setting is enabled in the game's configuration. Enabling AF from the control panel works but performance suffered severely. If we were to have kept AF enabled in the control panel we would have had to lower our resolution settings and other in-game settings, causing a large impact on the gameplay experience. In the end, we decided not to ruin with AF enabled so that we could raise all the other in-game settings to their highest levels.
 
Última edição:
Por mais que especules, dificilmente virás a saber se o Dx10.1 realmente aumenta os 20% de performance ou se o "rendering pass" a que a Ubisoft se refere (e não um site de reviews, nem um fórum biased da ATI, nem o v_rr) está por trás desse mesmo aumento.

Bom tens 3 sites de reviews a obterem o mesmo resultado, isto é ganhos com AA em 20% em HD 3000.
Os sites são [H], rage3d, e computerbase.de.
Tudo sites biased e que tão a mentir portanto?
Não percebo essas alegações, nem sequer têm sentido visto esta mostrado e provado 3 vezes nos sites acima indicado as vantagens do uso do DX_10.1.

Alias se leres com atençao a review da [H] é indicado claramente que não existe qualquer problema de rendering pass ou problema em AA ja que é feita uma análise detalhada da qualidade de imagem.

lohka_86 disse:
Depois, se a nVidia está de facto a injectar guita na Ubisoft, porque é que não lhes pediu para NÃO lançarem nada acerca do DX10.1 até eles próprios terem suporte por hardware? Ah, injectaram a guita só depois porque um fórum biased da ATI desinstalou o SP1 e viu que a 3870X2 perdeu 20% de performance.

Que comédia, sinceramente...
Obviamente que nunca saberás se a Nvidia tas por tras da historia ou não. Agora que é muitíssimo estranho é de facto.
Alias a única comedia possível de encontrar no meio disto tudo é de a Ubisoft ir lançar um patch para remover o DX_10.1 (que esta a funcionar correctamente) e depois mais tarde lançar outro patch para DX_10.1 outra vez.
Guess what, entretanto a Nvidia tb irá suportar Dx_10.1 em novas graficas e os ganhos no proximo patch serão ainda maiores. Mas esta parte é so especulação minha/ideia que a historia dá.
 
Bom tens 3 sites de reviews a obterem o mesmo resultado, isto é ganhos com AA em 20% em HD 3000.
Os sites são [H], rage3d, e computerbase.de.
Tudo sites biased e que tão a mentir portanto?
Não percebo essas alegações, nem sequer têm sentido visto esta mostrado e provado 3 vezes nos sites acima indicado as vantagens do uso do DX_10.1.

Alias se leres com atençao a review da [H] é indicado claramente que não existe qualquer problema de rendering pass ou problema em AA ja que é feita uma análise detalhada da qualidade de imagem.


Obviamente que nunca saberás se a Nvidia tas por tras da historia ou não. Agora que é muitíssimo estranho é de facto.
Alias a única comedia possível de encontrar no meio disto tudo é de a Ubisoft ir lançar um patch para remover o DX_10.1 (que esta a funcionar correctamente) e depois mais tarde lançar outro patch para DX_10.1 outra vez.
Guess what, entretanto a Nvidia tb irá suportar Dx_10.1 em novas graficas e os ganhos no proximo patch serão ainda maiores. Mas esta parte é so especulação minha/ideia que a historia dá.

A isso tudo respondo com o quote da Hard OCP que tenho acima... :rolleyes:

O AF não funciona com o DX10.1, e forçando pelo control panel, a performance DESCE muito, e ainda dizes que o DX10.1 funciona bem?

:lol:
 
O AF não funciona com o DX10.1, e forçando pelo control panel, a performance DESCE muito, e ainda dizes que o DX10.1 funciona bem?

:lol:

As vezes pergunto-me se abriram sequer o link :'(

O Bug do AF afecta tanto o DX_10 como o DX_10.1-> logo esse bug não advem do pedaço de código implementado em DX_10.1.

Alias, achas que o site [H] ias chegar as conclusões que chegou se nao detectasse isso? E repetindo-me novamente tens escrito no artigo que não existe qualquer bug de rendering pass ou bug de AntiAlising.
Qual é a próxima desculpa? ;)
 
Última edição:
É muito estranho que lancem um patch para fazer descer a performance num jogo... vai contra a corrente da indústria.

Aliás estou a lembrar-me na altura da GeForce FX e Radeon 9x00 que no Tomb Raider: Angel of Darkness, foi lançado um patch ao jogo para remover a possibilidade de gravar e correr timedemos... e por alguma razão foi.
 
nao me parece k as reviews da [H] sejam ATi biased, ate pq geralmente sao as reviews deles k piores resultados mostram para essa marca.
 
As vezes pergunto-me se abriram sequer o link :'(

O Bug do AF afecta tanto o DX_10 como o DX_10.1-> logo esse bug não advem do pedaço de código implementado em DX_10.1.

Alias, achas que o site [H] ias chegar as conclusões que chegou se nao detectasse isso? E repetindo-me novamente tens escrito no artigo que não existe qualquer bug de rendering pass ou bug de AntiAlising.
Qual é a próxima desculpa? ;)

Mas que desculpa???

Lá por tu não veres diferenças nem "bugs", não quer dizer que as não hajam... o jogo não é só os gráficos que te aparecem à frente :rolleyes:

O único facto é o que a Ubisoft disse acerca do jogo. E lá não fala em parte nenhuma de um "bug" mas sim
The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.

Isto é o que quem fez o jogo disse, o resto é tretas e mania da perseguição à nVidia...

Achas mesmo que se a nVidia enfiasse guita na Ubisoft, lhes permitiria sequer brincar ao Dx10.1 antes de terem hardware cá fora?

Geesh...
 
Mas que desculpa???

Lá por tu não veres diferenças nem "bugs", não quer dizer que as não hajam... o jogo não é só os gráficos que te aparecem à frente :rolleyes:

O único facto é o que a Ubisoft disse acerca do jogo. E lá não fala em parte nenhuma de um "bug" mas sim
Hum, ok 8|
Analogia-> Se te disserem que o jogo nao tem cenários (apesar de eles tarem la) vais dizer que ele não simplesmente porque sim, porque ele disse que não tinha.

Mas la está foste a bater á mesma tecla/desculpa que está desmentida em todas nas reviews. Não existe qualquer bug de render-pass ou AA e as imagens provam-no.
Alias aqui é que está a polémica, é que a Ubisoft lança um patch que tira performance em placas DX_10.1 sem motivo nenhum de qualidade de imagem.

Tens um jogo aquilo rola bem com mais 20% de performance e vais por um patch para remover os 20% de performance so pq eles dizem qq coisa relacionada com render-path muito mal explicada (2 linhas num fórum) e sobre a qual nao existem diferenças?

E que tal resolverem os problemas que existem quer nas ATI e Nvidia que estão reportadas na [H] em vez de retirarem uma coisa que está la bem? Ou o que interessa não é a satisfação do utilizador? Retirando o DX_10.1 estão pura e simplesmente a baixar a satisfação do utilizador.

Acho que este raciocínio não é assim tão difícil de fazer e esta muito melhor explicado nas reviews.
Se querias mostrar a desculpa de 2 linhas da Ubisoft, bom essa ja esta mostrada em muitos posts mais atrás e ja toda a gente sabia. O que está aqui a ser explorado nas reviews é um facto perfeitamente valido e demonstrado e é ai que ta a polémica.

Pergunta para 10 mil euros:
Se tenho uma placa DX_10.1 sei que corre melhor o jogo neste modo, pq raio vou instalar o patch que retirar o DX_10.1?
Acho que toda a gente sabe a resposta ;)
 
Última edição:
O jogo tem requisitos mínimos muito exagerados como de processador pede core 2 duo 2.2 senão não corre(aqui refiro-me só ha gama core 2 duo)... podes ter a melhor gráfica que nada... muito provavelmente vão ter que pegar nos requisitos pois exigem demais para o jogo que é... o crysis puxa 3 vezes mais e com requisitos 3 vezes menos consegue-se jogar. Eu se não tive-se o meu cpu overclockado não podia jogar este jogo... que por acaso corre tudo no máximo com AA no máximo e sem stress. o crysis já não é bem assim... Um colega meu queria jogar mas o cpu é core 2 duo 1.86 chapéu...lol de resto tem tudo...
 
Hum, ok 8|
Analogia-> Se te disserem que o jogo nao tem cenários (apesar de eles tarem la) vais dizer que ele não simplesmente porque sim, porque ele disse que não tinha.

As reviews têm acesso a todo o código processado pelo motor de jogo para poderem de facto analisarem o que falha ou não, usando uma placa DX10 ou uma DX10.1??? Não me parece. O que é pena.

Mas la está foste a bater á mesma tecla/desculpa que está desmentida em todas nas reviews. Não existe qualquer bug de render-pass ou AA e as imagens provam-no.
Alias aqui é que está a polémica, é que a Ubisoft lança um patch que tira performance em placas DX_10.1 sem motivo nenhum de qualidade de imagem.

Já te disse que lá por não veres nas imagens nada que seja motivo de suspeitar de algo em falha, não quer dizer que isso não aconteça... Um jogo não consiste num slide de imagens, não é um vídeo, há processamento que tu não vês nas imagens, a não ser que me mostres uma review que prove o contrário :-D

Tens um jogo aquilo rola bem com mais 20% de performance e vais por um patch para remover os 20% de performance so pq eles dizem qq coisa relacionada com render-path muito mal explicada (2 linhas num fórum) e sobre a qual nao existem diferenças?

A parte do "não existem diferenças" já te dei a minha opinião acerca disso, e eles apenas estão a remover o suporte Dx10.1 porque supostamente a implementação Dx10.1 ignora um passo de renderização, daí dar "vantagem" a placas com suporte Dx10.1, não é porque o jogo corre bem... :zzz:

E que tal resolverem os problemas que existem quer nas ATI e Nvidia que estão reportadas na [H] em vez de retirarem uma coisa que está la bem? Ou o que interessa não é a satisfação do utilizador? Retirando o DX_10.1 estão pura e simplesmente a baixar a satisfação do utilizador.

Estou de acordo contigo, na parte de resolverem os problemas agora se a Ubisoft diz que o Dx10.1 está mal implementado, quem es tu ou qualquer site de reviews para dizer que isso é falso???
Pois...

Acho que este raciocínio não é assim tão difícil de fazer e esta muito melhor explicado nas reviews.
Se querias mostrar a desculpa de 2 linhas da Ubisoft, bom essa ja esta mostrada em muitos posts mais atrás e ja toda a gente sabia. O que está aqui a ser explorado nas reviews é um facto perfeitamente valido e demonstrado e é ai que ta a polémica.

Meu amigo, eu apresentei uma fonte oficial, não tão oficial quanto se pretendia e muito vaga, mas é o que há... Pelo menos eu considero isso, tu ignoras, mas ok...

Pergunta para 10 mil euros:
Se tenho uma placa DX_10.1 sei que corre melhor o jogo neste modo, pq raio vou instalar o patch que retirar o DX_10.1?
Acho que toda a gente sabe a resposta ;)

Isso fica ao critério de cada um, mas podes sempre experimentar o patch para ver se notas diferenças.

O jogo tem requisitos mínimos muito exagerados como de processador pede core 2 duo 2.2 senão não corre(aqui refiro-me só ha gama core 2 duo)... podes ter a melhor gráfica que nada... muito provavelmente vão ter que pegar nos requisitos pois exigem demais para o jogo que é... o crysis puxa 3 vezes mais e com requisitos 3 vezes menos consegue-se jogar. Eu se não tive-se o meu cpu overclockado não podia jogar este jogo... que por acaso corre tudo no máximo com AA no máximo e sem stress. o crysis já não é bem assim... Um colega meu queria jogar mas o cpu é core 2 duo 1.86 chapéu...lol de resto tem tudo...

Este jogo é um port da X360, não podes esperar uma optimização ao nível do Crysis, feito de raíz para PC.

EDIT: Bem, para aqueles que acham que o DX10.1 está ok como está, aqui fica uma coisa interessante.

Fonte.
 
Última edição:
Back
Topo