Gráfica NVIDIA GeForce GTX 980 Ti, or GTX Titan X 'GM200' teased

Sinceramente não acho que valha a diferença de preço. Tudo bem que vem com oc de fabrica, mas o que ela traz qualquer uma outra faz sem problemas, e o máximo que eles atingiram também é algo relativamente comum.
É uma excrlente gráfica, sem duvida, mas não vale o extra face ás outras versões (para o comum dos mortais, claro)
 
São gráficas pensadas para OC extremo, tal como as Kingpin da EVGA e afins. Mas são produtos soberbos, tive uma R9 290X Lightning e só de olhar para ela uma pessoa ficava consolada.

Naturalmente o grosso dos consumidores não tira partido das capacidades de um produto destes, para o average joe acaba por fazer basicamente o mesmo das outras.
 
Ca esta o argumento para quem comprou a titan.

Black Ops III: 12 GB RAM and GTX 980 Ti Not Enough

This year's installment to the Call of Duty franchise, Black Ops III, has just hit stores, and is predictably flying off shelves. As with every ceremonial annual release, Black Ops III raises the visual presentation standards for the franchise. There is, however, one hitch with the way the game deals with system memory amounts as high as 12 GB and video memory amounts as high as 8 GB. This hitch could possibly be the reason behind the stuttering issues many users are reporting.

In our first play-through of the game with its highest possible settings on our personal gaming machines - equipped with a 2560 x 1600 pixels display, Core i7 "Haswell" quad-core CPU, 12 GB of RAM, a GeForce GTX 980 Ti graphics card, NVIDIA's latest Black Ops III Game Ready driver 385.87, and Windows 7 64-bit to top it all off, we noticed that the game was running out of memory. Taking a peek at Task Manager revealed that in "Ultra" settings (and 2560 x 1600 resolution), the game was maxing out memory usage within our 12 GB, not counting the 1.5-2 GB used up by the OS and essential lightweight tasks (such as antivirus).


We also noticed game crashes as little as 10 seconds into gameplay, on a machine with 8 GB of system memory and a GTX 980 Ti.


What's even more interesting is its video memory behavior. The GTX 980 Ti, with its 6 GB video memory, was developing a noticeable stutter. This stutter disappeared on the GTX TITAN X, with its 12 GB video memory, in which memory load shot up from maxed out 6 GB on the GTX 980 Ti, to 8.4 GB on the video memory. What's more, system memory usage dropped with the GTX TITAN X, down to 8.3 GB.

On Steam Forums, users report performance issues that don't necessarily point at low FPS (frames per second), but stuttering, especially at high settings. Perhaps the game needs better memory management. Once we installed 16 GB RAM in the system, the game ran buttery-smooth with our GTX 980 Ti.

https://forum.zwame.pt/threads/call-of-duty-black-ops-3-treyarch-activision.909997/page-18

lol....
 
Pelo que percebi pelas steam sales, isso foi só um user a queixar-se disso, aparentemente mais ninguem tem grandes problemas, a não ser users com i5K.

Seja como for tudo isto está por confirmar, temos de aguardar por sites como a techspot e guru3d para fazer o benchmark ao jogo e apontar as coisas.
 
Hmmmm... A menção é com tudo ao máximo (nem mencionam AA, AF e valores, SSAO, HBAO, etc) em 2560 x 1600. Com a optimização que tem tudo aparecido... Não me espanto que use essa quantidade de Vram. E mais uma vez, um título AAA com falta de optimização e uso louco de recursos, nada de novo :P
 
Porque é que lhes chamam de AAA quando optimização é zero, single player é meh no melhor dos casos, não tens servers locais/lan, matchmaking é uma desgraça, netcode buggado.
Pelos gráficos?
 
A designacao AAA não tem a ver com a qualidade do jogo, mas sim com o nível de produção, normalmente aliado a um orçamento grande. O jogo menos optimizado e com mais bugs do mundo pode ter uma produção excelente.
 
Porque é que lhes chamam de AAA quando optimização é zero, single player é meh no melhor dos casos, não tens servers locais/lan, matchmaking é uma desgraça, netcode buggado.
Pelos gráficos?

Vou um bocado pelo que o Nikon deu a entender aqui:

normalmente aliado a um orçamento grande

Quer se queira, quer não, são produtoras com orçamentos muito superiores à media, e com franchises bem estabelecidas e reconhecimento do público que alguns outros não têm.

Partes da sua produção, talvez. :002:

E também concordo um bocado com esta ideia, o orçamento nem sempre é dividido de acordo com o que faz sentido na parte que interessa aos jogadores que aprofundam minimamente o jogo, que é um bom core funcional, com optimização, e vai mais para o bling, que é o que vende no fundo. Não te esqueças que com o chicote que está em cima, normalmente tens um tempo de produção bem delimitado (ao contrário de sai quando estiver bem pronto) e tens de escolher onde vais gastar o tempo. Se quem está em cima vê que o gráfico vende (ainda por cima com as pré-sales a fazerem um bom dinheiro), e que é o aspecto/look que aumenta o valor e quantidade desta prática (pre-sale) que muito odiamos, mas que o jogador normal abusa, então claramente a aposta vai passar aí.

Agora, para mim, a expressão AAA já perdeu o valor todo intrínseco que tinha, mas ela continua bem presente e ainda gera ideias nas outras pessoas que ainda não aprenderam ;)
 
Este é até um exemplo flagrante de dinheiro mal distribuído (para nós, que queremos é jogar).
Têm meia dúzia de estrelas de hollywood a fazer personagens do jogo. Um FPS com uma campanha que duvido que passe a meia dúzia de horas....
 
Como alguns já sabem se tivermos os monitores a 144Hz ou mais o consumo destas gráficas dispara brutalmente em idle:

powerdraw.png


Eu pessoalmente desde que tenho o Asus PG279Q tenho sempre a gráfica nos 45-50ºC que é consequência disso mesmo :\

Felizmente após o PCPER reportar isto à nVIDIA receberam a seguinte resposta:

We checked into the observation you highlighted with the newest 165Hz G-SYNC monitors.

Guess what? You were right! That new monitor (or you) exposed a bug in the way our GPU was managing clocks for GSYNC and very high refresh rates.

As a result of your findings, we are fixing the bug which will lower the operating point of our GPUs back to the same power level for other displays.

We’ll have this fixed in an upcoming driver.

Ou seja, é bug e vai ser corrigido num driver futuro :D

fonte
 
Back
Topo