Gráfica AMD Radeon R9 and Radeon R7 200 Series " Hawaii" and ""Curacao"

@I_Eat_All

se calhar não fui claro no post anterior, o queria dizer é que até agora a única coisa que a AMD podia oferecer a nível de core CPU era x86, e que devido às questões do licenciamento eles certamente não podem licenciar a terceiros, não podendo fazer aquilo que Nintendo queria, se bem que também não vejo qual o interesse da Nintendo no x86, sendo o ARM mais interessante.

Mas agora que a AMD já tem uma licença de arquitectura da ARM, estando a trabalhar num custom core o K12, e tendo o seu próprio IP gráfico (GCN, VLIW4 e VLIW5), tal já pode ser possível.

Agora claro que entre aquilo que a AMD pede e aquilo que Nintendo está disposta a pagar, isso são outros 500.

Nos CPU's a AMD é vitima da Intel e do seu R&D estar neste momento anos à frente onde interessa, trigate (transistores dispostos de forma tridimensional), power gating, multithread e escalabilidade (há variantes ultra low voltage intel desde o Pentium III, a AMD andava tipicamente 10W acima em variantes equivalente até há pouco tempo) - acontece que estes CPU's ainda por cima saiem beneficiados pelo código escrito para partes Intel desde o inicio dos tempos, especificidades que para a Intel não é preciso fazer reverse engineer para compreender. Basta referir a história dos 64 bits, a AMD teve uma implementação x86-64 durante anos onde ninguém tocava, porque a Intel não a tinha, o EM64 do Pentium 4 e Pentium D não era 64 bits coisa nenhuma... Era uma implementação incompleta e era isso que a industria usava.

Ahh o famoso ICC...


PS: esta conversa até está a ser bastante interessante e tal, e não sou eu o moderador, mas na volta isto já está a ser um pouco off-topic, não? Na volta talvez fosse melhor criar um tópico para o Semi-custom business da AMD.
 
Nos CPU's a AMD é vitima da Intel e do seu R&D estar neste momento anos à frente onde interessa, trigate (transistores dispostos de forma tridimensional), power gating, multithread e escalabilidade (há variantes ultra low voltage intel desde o Pentium III, a AMD andava tipicamente 10W acima em variantes equivalente até há pouco tempo) - acontece que estes CPU's ainda por cima saiem beneficiados pelo código escrito para partes Intel desde o inicio dos tempos, especificidades que para a Intel não é preciso fazer reverse engineer para compreender. Basta referir a história dos 64 bits, a AMD teve uma implementação x86-64 durante anos onde ninguém tocava, porque a Intel não a tinha, o EM64 do Pentium 4 e Pentium D não era 64 bits coisa nenhuma... Era uma implementação incompleta e era isso que a industria usava.

Por outro lado, durante muitos anos só processadores Intel tiveram hyper threading (ler: SMT) e muito mais aplicações o usaram do que usaram os 64-bits da AMD. Não é "justo" e não é suposto ser, a AMD já aceitou isso, resta-lhes arranjar formas de fazer o mesmo, se possivelmente melhor ou "mais barato".
[...]
AMD não tem capacidade nos CPU's de impor tendencias, resta-lhes segui-las ao mesmo tempo que o dinheiro para R&D não é o mesmo, as patentes não são as mesmas e... devido a custos já abandonaram o custo de ter foundries suas. A Intel e IBM são as única que ainda as têm (e a IBM vai-se livrar das suas).

A Intel está sempre à frente, seja em termos reais ou forjados:

Intel finally agrees to pay $15 to Pentium 4 owners over AMD Athlon benchmarking shenanigans
http://www.extremetech.com/computin...ners-over-amd-athlon-benchmarking-shenanigans


Hype:
Intel Bay Trail benchmark appears online, crushes fastest Snapdragon ARM SoC by 30%
http://www.extremetech.com/computin...line-crushes-fastest-snapdragon-arm-soc-by-30

Reality:
The AnTuTu Benchmark, a benchmarking tool for Android smartphones and tablets, has been revised following some discrepancy over whether the latest Intel Atom processor outperformed ARM-based chips from several vendors in key aspects of the benchmark.
http://www.eetimes.com/author.asp?section_id=36&doc_id=1318894
 
Eu não consigo achar muito coisa quando fazem uma reply a dizer "LOL.", portanto dizer que eu errei... é estranho. Também não quero bulhas, coloquei só a source da informação para suportar o que disse: um burburinho sobre a AMD e a portátil da Nintendo.

Mas lá fizeste um post mais elaborado (tou a brincar).
Sei que não queres bulhas, mas estava apenas a distanciar-me o mais possivel de uma. Não é suposto um moderador andar a começar confusão e não era esse o meu entuito. Além de que não sou moderador aqui.


Percebo de onde estás a vir, também não gosto que me façam um reply a dizer "LOL", mas o meu post, não começou nem acabou aí. Estava a haver uma linha de raciocinio, por assim dizer, embora a interacção com o teu post tenha sido essa, o reasoning para o LOL estava no resto do texto.

Não é o que escreveste que estava errado, eu sei que esses burburinhos, e é provável que a AMD esteja a tentar - até pode ser verdade um dia (eles têm vantagem face à Qualcomm, Nvidia, Adreno e PowerVR's, mas... o track record não é fantástico.

Facto é que a Nintendo é uma empresa caprichosa cujos interesses frequentemente não são os da AMD.


... Raios, a 3DS é mais potente do que a Nintendo tinha em mente - só foram tão alto nos specs por causa do 3D a vontade deles era downclock porque as is a bateria da 3DS não dura tanto como gostariam (ironicamente, muito por causa do power draw do ecrã quando em modo 3D).
Não foi só pelo facto de um VP vir a publico dizer isto, porque é estranho já que, tal como disseste, isto anda tudo a passar-se em background com várias partes interessadas - até a Qualcomm fez propostas para a PS4 e Xbox One, portanto imagino que façam para uma portátil da Nintendo.
Sabes que a Qualcomm fazer propostas para esse segmento não é tão "out-there" como possas pensar (já lá vou), de facto, se a AMD quer a Nintendo como cliente e a Nintendo começar a trabalhar em software para o hardware deles então a Qualcomm é sem duvida o maior risco para, no final, a consola não ser AMD coisa nenhuma.

1. Consolas caseiras (PS3, PS4... possivelmente Wii U?) a consolas portáteis (3DS, PSVita) preferencialmente usam OpenGL ES, não OpenGL normal.

2. A Qualcomm tem herança ATi, especificamente:

(...) chip maker AMD is looking to boost its bottom line by ridding itself of some of the leftovers from its acquisition of ATI – specifically, the hand-held graphics division.

The Imageon-branded OpenGL ES 2.0 hardware the division created (...) was based around the Unified Shader Architecture that the company used in the Xbox 360's graphics hardware.

(...) he company has agreed to sell Imageon to telecommunications chip specialists Qualcomm for $65 million. An early licensee of the technology, Qualcomm will also be taking AMD's hand-held division employees to help it get the most from the platform.
Fonte: http://www.bit-tech.net/news/2009/01/21/amd-sells-hand-held-division/1

Vantage point: A Qualcomm pode fazer GPU's compativeis com R600 sem pagar um tostão à AMD, a arquitectura que eles usam é um fork relativamente recente da AMD. De facto, é VLIW5, tal como a X360, R600, R700, R800 e a maior parte das R900 (e as R900 que não são VLIW5 são VLIW4), consegue ser mais similar com a Wii U que uma arquitectura GCN.

Caso a Microsoft quisesse retrocompatibilidade e manter a corrida aberta não era uma opção a desperdiçar. E caso a Wii queira manter a concorrencia aberta... Também. Além de que sendo a 3DS um GPU da DMP diria que a DMP nunca está fora do mapa para um follow-up, facilidade de assegurar retrocompatibilidade perfeita.

Não acredito que o pitch tenha ido longe, no entanto. Para a Nintendo e se as ideias de "ecosistema similar" entre consola caseira e portatil forem para cumprir... A Qualcomm é uma hipótese e pode até ser hipótese para as duas.
Depois a NVIDIA fez, há uns meses, declarações que não tem interesse no mercado das consolas (se bem que foi mais damage control do que outra coisa).
Isso nem damage control foi. Foi exasperante.

se calhar não fui claro no post anterior, o queria dizer é que até agora a única coisa que a AMD podia oferecer a nível de core CPU era x86, e que devido às questões do licenciamento eles certamente não podem licenciar a terceiros, não podendo fazer aquilo que Nintendo queria, se bem que também não vejo qual o interesse da Nintendo no x86, sendo o ARM mais interessante.

Mas agora que a AMD já tem uma licença de arquitectura da ARM, estando a trabalhar num custom core o K12, e tendo o seu próprio IP gráfico (GCN, VLIW4 e VLIW5), tal já pode ser possível.
Sim, isso é possível dependendo de quando se materialize, caso haja um alinhamento pode fazer sentido para ambas.

Mas a Nintendo é a empresa que gosta de andar umas revisões de CPU para trás... A DS saiu em 2004 com um ARM9 e um ARM7, já haviam ARM11 há dois anos, a 3DS saiu com um dual core ARM11 (um processador de 2002), quando já haviam Cortex-A8's e Cortex-A9's (a Vita tem 4xA9's).

Há várias razões para isto, não oficiais mas obvias.

1. Licenciamento de arquitecturas mais antigas é sempre mais barato.

2. Arquitecturas antigas são frequentemente menos complexas (core dies mais pequenos face ao tamanho dos transistores), isto também significa que tendem a gastar menos energia quando a usarem o mesmo processo de fabrico que tecnologia mais moderna. Como referir que os Intel Atom são baseados no Pentium 1, in-order-execution olé. Não é só a Nintendo que vê mérito em ir pescar a baús.

3. Estes SOC's são custom por isso não há vantagem "off-the-shelf" de custos de fabrico em usar a revisão da arquitectura que tem mais tiragem, vai custar o mesmo senão mais (vai custar mais, pela já referida complexidade acrescida).

4. Linhas de produção Foundry que não produzem em processos de linha da frente tipo 22nm para baixo não são as mais procuradas em 2014 mas continuam em operação para fins de "legacy" estas linhas de produção são muito mais baratas à hora. A Nintendo raramente faz core shrinks e é por isto, esmagadora maioria das vezes não lhes compensa a nivel de custos.


Se calhar têm um ARM11 customizado a comer a mesma energia que um ARM A9, mas é vida. Teóricamente, gastaria menos energia se usasse o mesmo processo. Há um balanço, mas ninguém fora da Nintendo o compreende.

Muito menos concordar, raios,.. Eu compreendo e em muitas circunstancias não concordo.
Agora claro que entre aquilo que a AMD pede e aquilo que Nintendo está disposta a pagar, isso são outros 500.
Pior é a AMD aceitar que a Nintendo quer o GPU que eles desenharam capaz de fazer brilharetes de meia noite @ 1 GHz, com metade da complexidade, e a.. 266 MHz.

E isso (apesar de eu estar a exagerar) é provável.

O DMP PICA200 da 3DS foi concebido, finalizado e apresentado em 2006 com dois specs, um @ 400 MHz (fabricado @ 65nm), "high performance" e outro @ 200 MHz, "low performance". Na 3DS, lançada em 2011... Está a 133 MHz.

Fala-se que poderá estar a 266 MHz na New 3DS.
PS: esta conversa até está a ser bastante interessante e tal, e não sou eu o moderador, mas na volta isto já está a ser um pouco off-topic, não? Na volta talvez fosse melhor criar um tópico para o Semi-custom business da AMD.
Ah... Eu não sou moderador aqui...
A Intel está sempre à frente, seja em termos reais ou forjados:
Tal como a Nvidia:

nvidia_tegra_3_coremark.jpg


Compilaram e optimizaram o bench para a cena deles, usaram um compilador antigo para o Core 2 Duo.

Mas elas todas mentem para ficarem melhor na foto, umas mais que outras. Facto é que relativo à AMD infelizmente não têm tido de mentir.
 
Última edição:
Excelente noticia para quem tem uma AMD HD7000 ou R9 200, um aumento de 19% seria fantástico, acredito que ainda têm potencial para retirar das gráficas actuais! :D

AMD announces Catalyst Omega drivers with Virtual Super Resolution




AMD Catalyst Omega
The new drivers, which have nothing to do with popular modified drivers from few years back, are a new step in performance optimization and implementation of new features.

This driver will be available for download on December 9th.

DSR vs VSR
NVIDIA’s Dynamic Super Resolution finally has some competition. For years both companies neglected the need for easy downsampling technology for end users. Eventually people came up with a 3rd-party modifications, which were shortly put, not the easiest to handle.

With Catalyst Omega drivers AMD introduces Virtual Super Resolution (VSR). The changes can be applied through Catalyst Control Center, however I’m not yet sure if is this going to work across all installed games or just those selected by the user.

This technology has some benefits and some downsides. Not all games are optimized to offer good performance at higher resolution. Sometimes it’s better to choose anti-aliasing filter instead. Company of Heroes 2 for instance, is unplayable with single R9 290X or GTX 980 at 4K resolution in Ultra quality, so you are better off playing with just AA enabled.



G-SYNC vs FREESYNC
Monitors with FreeSync technology are expected to launch early next year (February — March). Unlike G-Sync, FreeSync will simply adopt DisplayPort Adaptive-Sync implementation, so no additional hardware is required, except monitor with newest DisplayPort connector. FreeSync has some great future ahead, and I’m sure NVIDIA will sooner or later adopt DP Adaptive-Sync as well, so G-Sync modules will no longer be required.



Video enhancements
AMD Catalyst Omega will also bring new video quality improving technologies like Fluid Motion Video, Detail Enhancement and Adaptive upscaling.





Driver efficiency improvement and GPU/APU optimizations


5K monitors support and Eyefinity with 24 display support




FEATURES
AMD FLUID MOTION VIDEO
PERFECT PICTURE ENHANCEMENTS

BETTER VIDEO QUALITY THAN MOST HIGH-END TVS

Smooth Blu-ray Playback with Lower Power APUs

  • High Quality Frame Rate Conversion
  • Interpolates frames using GPU compute
  • Removes Video Judder
CONTOUR REMOVAL
PERFECT PICTURE ENHANCEMENTS

AUTOMATIC VIDEO IMPROVEMENT

Improved Algorithm for Compressed Videos

  • Removes compression artifacts
1080P DETAIL ENHANCEMENT
PERFECT PICTURE ADDITIONS

ENHANCE YOUR ENTERTAINMENT EXPERIENCE

1080P Detail Enhancement now for APUs

  • Provides look-and-feel of 1080P video Original Video Processed Video to lower-resolution content
  • Improves frequency response and controllability of overshoot and noise immunity
ULTRAHD-LIKE EXPERIENCE
PERFECT PICTURE ADDITIONS

MAKE YOUR 1080P CONTENT LOOK GREAT ON ULTRA HD DISPLAYS

Makes 1080P Videos 4K-like

Combination of:
– Fluid Motion Video
– Detail Enhancement
– Adaptive upscaling

FRAME PACING ENHANCEMENTS
ENHANCED FEATURE FOR DUAL GRAPHICS

ENHANCED FOR SMOOTHER DUAL GRAPHICS GAMEPLAY

Includes enhancements for
– Batman Arkham Origins
– Metro Series
– TombRaider
– Sniper Elite 3
and many more …

Source: TechSport (article removed)

NEW FEATURES: VIRTUAL SUPER RESOLUTION
UP TO 4K QUALITY GAMING ON 1080p HD DISPLAYS

Render games at higher resolution and display them at lower resolution

  • Smoother textures and edges
  • Game and Engine agnostic solution
  • Simulates Super Sampling Anti-Aliasing (SSAA) for games that don’t support it
ENABLED THROUGH AMD CATALYST TM CONTROL CENTER

  • Enabled through AMD Catalyst Control Center
  • Select higher resolution in-game settings
ALIENWARE GRAPHICS AMPLIFIER
SUPPORT FOR AMD RADEON™ GRAPHICS

AMPLIFY YOUR PERFORMANCE

Support for AMD Radeon™ Graphics in Alienware Graphics Amplifier

  • Expand the capability of the Alienware 13 notebook with a high-performance AMD Radeon graphics card
AMD FREESYNC TECHNOLOGY
WHAT GAMERS HAVE BEEN WAITING FOR

FREESYNC USES INDUSTRY-STANDARD DISPLAYPORT ADAPTIVE-SYNC

Eliminates screen tearing without all the usual lag and latency

  • Synchronizes the refresh rate of a compatible monitor to the frame rate of your content, however much it varies
  • Monitor partners are validating with drivers from AMD now
  • Monitors planned availability: Q1, 2015
5K MONITOR SUPPORT
UNPARALLELED DISPLAY PERFORMANCE FOR PROFESSIONALS AND GAMERS WHO REQUIRE THE HIGHEST RESOLUTION AVAILABLE

Silky-smooth, fatigue-free graphics

  • 5120×2880 at 60Hz
  • 14.7 million pixels, 218 pixels-per-inch
  • Dual DisplayPort 1.2 input
EYEFINITY
INTRODUCING SUPPORT FOR 24 DISPLAY EYEFINITY!

  • Smooth, tear free video playback with up to 24 displays (4 GPUs) on Windows®
  • Updated GUI for intuitive set up of Eyefinity desktop
  • Quick setup of overlap and blending parameters
  • Scale display capability in a single system configuration
  • No need for 3rd party hardware and software solutions
FULL LIST OF FEATURES
  • Compression Artifact Removal 2
  • Detailed Enhancement 2
  • Frame Rate Conversion 2.0
  • Virtual Super Resolution
  • 5K x 3K Display Support
  • Dynamic Refresh Rate (FreeSync)
  • Frame Pacing for Dual Graphics
  • AMD CrossFire™ Frame Pacing improvements
  • OpenCL 2.0
  • Driver support for CodeXL 1.6
  • OGL ES3.0
  • Faster Display Mode Enumeration
  • Color Gamut Remap
  • VAAPI support for Phase 1 Decode
  • Rotated Eyefinity Support for Radeon™ R9 285
  • Windows Installer Updates
  • Windows Autodetect Software Utility
  • Linux® Distro Specific Packaging
  • Configurable UVD Sessions
AMD CrossFire™ Frame Pacing improvements

  • Designed to reduce stuttering from graphics memory intensive applications: Tomb Raider, Hitman Absolution, Watch Dogs, Far Cry 3
Display Mode Enumeration

  • Designed to improve on “Plug a display -> See thedisplay” time
OpenMP 3.1 on HSA APUs

  • AMD and SUSE Linux® have collaborated to create a GCC compiler allows OpenMP 3.1 applications to accelerate compute on HSA devices
Rotated Eyefinity Support for AMD Radeon™ R9 285

  • Enables a mix of portrait and landscape oriented displays
VAAPI support for Phase 1 Decode

  • Embedded product feature to enable Video Acceleration API (VAAPI) for Linux®
  • Enables video decoding in the AMD Catalyst™ Linux® Driver
Configurable UVD Sessions

  • Embedded product feature to enable up to 20 simultaneous video streams (eg. Video Surveillance showing many camera streams)
Color Gamut Remap

  • API to permit OEMs enablement of sRGB images on wide gamut displays for more natural colors
OpenGL ES3.0 Support

  • Support for Windows® and Linux®
Improvements to AMD Catalyst™ Windows Installer

  • Less clicks to get through an install
  • Installer Windows resizing to match detected display
Windows Autodetect Software Utility

  • Improved detection of the hardware on which the install is taking place
Linux® Distro Specific Packaging

  • Ubuntu and Red Hat Enterprise Linux distribution specific packages – much easier for users of those distributions to install AMD Catalyst Linux drivers

Fonte: http://videocardz.com/54128/amd-announces-catalyst-omega-drivers-with-virtual-super-resolution
 
Se a AMD melhorar o overhead, podemos ser amigos novamente, estou um bocado zangada com ela :D
Eu não estou zangado mas sinto que podem fazer muito melhor, agora vou aguardar com alguma ansiedade até dia 9, um aumento daqueles acho podia ser uma reviravolta e fazer alguns voltarem para o lado vermelho! :P
 
Eu não estou zangado mas sinto que podem fazer muito melhor, agora vou aguardar com alguma ansiedade até dia 9, um aumento daqueles acho podia ser uma reviravolta e fazer alguns voltarem para o lado vermelho! :P
O aumento seria de 12% +/- nao era? Se for verdade colocaria a 290x taco a taco com a 980 ou nem por isso?

E que estava a pensar comprar vga agora 970 e pelo preço compro quase 290x de 8gb que com daqui a 4 anos com crossfire da-me para outros 4.. nao seria mau, eu ate sou do slb passo ja para vermelhos :p
 
O aumento seria de 12% +/- nao era? Se for verdade colocaria a 290x taco a taco com a 980 ou nem por isso?

E que estava a pensar comprar vga agora 970 e pelo preço compro quase 290x de 8gb que com daqui a 4 anos com crossfire da-me para outros 4.. nao seria mau, eu ate sou do slb passo ja para vermelhos :p
Não há certezas de nada mas fala-se pela net fora em 19%, se for verdade colocaria a R9 290X a competir directamente com a GTX980 (excepto em consumos).
Uma coisa é certa, tenho notado melhorias nas ultimas catalyst, a ver vamos se aparece um salto gigante!
 
Preciso é ver que a nvidia não vai ficar de braços cruzados e devera mandar umas drivers depois a contra atacar as mesmas.E a 980/970 tem mais espaço d manobra em % de melhoria por usarem nova arquitetura e recentes. Foi a mesma coisa mantle quando nvidia deu belo boost em dx11. Mas assim é bom ganhamos nos.
 
Preciso é ver que a nvidia não vai ficar de braços cruzados e devera mandar umas drivers depois a contra atacar as mesmas.E a 980/970 tem mais espaço d manobra em % de melhoria por usarem nova arquitetura e recentes. Foi a mesma coisa mantle quando nvidia deu belo boost em dx11. Mas assim é bom ganhamos nos.

Pois mas pelo que eu percebi é um " novo tipo de drive " logo tambem pode ser melhorada, peço desculpa se tou errado mas li o post de relance e no tele e nao da muito jeito..

Não há certezas de nada mas fala-se pela net fora em 19%, se for verdade colocaria a R9 290X a competir directamente com a GTX980 (excepto em consumos).
Uma coisa é certa, tenho notado melhorias nas ultimas catalyst, a ver vamos se aparece um salto gigante!

Pois entao pode ser que a 290x se torne um best buy pelo menos ate as novas vga da amd ?
Se assim for poupo 100€ face a 980.. best buy, 8gb ( eu sei que ainda nao se usam ) e mais preparada para futuro..
Os watts nao me interessa pagar mais 50€ ao final do ano, quem compra vga de 500€ ( 980 ) nao se deve preocupar com a conta da luz que uma 290x possa dar a mais, para mim sao meras banalidades a tuga, se me perguntarem se gosto da optimizacao de watts gosto mas e quando valer a pena nao por mesqulhice. ( faz-me lembrar aquele tipo de pessoas que vao comer ao mac e pedem coca cola zero )
 
A Techspot já tinha um artigo publicado sobre os novos drivers, que entretanto removeram, devido ao NDA só acabar na segunda-feira. No entanto, algum pessoal foi a tempo e ainda o postou pelos diversos fóruns.

Segundo testes deles, um bom leque de jogos não tiveram quaisquer melhorias, caso do BF4, Watch Dogs, Tomb Raider, Crysis 3 e Sleeping Dogs. Os jogos com mais ganhos foram o Bioshock Infinite e Metro Redux.
 
Preciso é ver que a nvidia não vai ficar de braços cruzados e devera mandar umas drivers depois a contra atacar as mesmas.E a 980/970 tem mais espaço d manobra em % de melhoria por usarem nova arquitetura e recentes. Foi a mesma coisa mantle quando nvidia deu belo boost em dx11. Mas assim é bom ganhamos nos.
Eu penso que as nvidia já devem estar bem perto do potencial máximo mas posso estar enganado.

A Techspot já tinha um artigo publicado sobre os novos drivers, que entretanto removeram, devido ao NDA só acabar na segunda-feira. No entanto, algum pessoal foi a tempo e ainda o postou pelos diversos fóruns.

Segundo testes deles, um bom leque de jogos não tiveram quaisquer melhorias, caso do BF4, Watch Dogs, Tomb Raider, Crysis 3 e Sleeping Dogs. Os jogos com mais ganhos foram o Bioshock Infinite e Metro Redux.
De facto no BF4 em DX11 não acho que esteja muito bem optimizado mas com o Mantle estou muito contente com a fluidez, mas os melhoramentos parecem ser em muitos jogos, penso que se derem este passo, outros poderão vir! :P
 
Se assim for poupo 100€ face a 980.. best buy, 8gb ( eu sei que ainda nao se usam ) e mais preparada para futuro...
O salto, pelo que se via nos rumores, era mais na ordem dos 5-8%, tirando casos especificos como o Batman Origins (29% num jogo que já de si corre com +140fps não é propriamente importante). Não acredito muito num salto geral muito maior, pelo menos nos títulos mais agressivos, mas até ficava feliz se acontecer.

Não percebo é umas coisas ai. Primeiro ponderas a 970, depois vais para o best buy 290X, que pelo preço/performance até é verdade na versão 4GB/360€ (a de 8GB não sei a quanto anda), e depois comparas com a 980 que esta noutro campeonato de performance e preço (nos valores actuais, sem os 12/19% que falam). Depois vem esse "mais preparada para o futuro", que espero não ser pela VRAM que não demonstra absolutamente nada, especialmente a 1080p que deve ser o caso por teres ponderado a 970 no inicio. E por fim, se não importa muito mais euro/menos euro, o melhor era fazer o SLI/CF a curto prazo e não daqui a 4 anos, porque nessa altura nem vais pensar nestas placas com as novas fornadas que supostamente vão continuar a incrementar o rendimento.
 
Primeira review das drivers OMEGA, só tenho a dizer, que perca de tempo da techpowerup, primeiro não vejo quem é que joga 3Dmark, depois só testaram 3 jogos, um deles que não estava previsto aumento de frames, enfim, nada como testar por mim mesmo! :D
 
Primeira review das drivers OMEGA, só tenho a dizer, que perca de tempo da techpowerup, primeiro não vejo quem é que joga 3Dmark, depois só testaram 3 jogos, um deles que não estava previsto aumento de frames, enfim, nada como testar por mim mesmo! :D
Realmente, não há muito por onde pegar ali, pode ser que ao longo do dia apareçam reviews com mais jogos.

Mesmo assim, gostei do salto no Ryse, os 64@1080p devem ajudar muita gente a ter uma experiência melhor de jogo sem descer settings. Por outro lado o BF4, que é "AMD-game", deixou-me mais "meh". Dá um pequeno saltito, mas nada de muito assinalável e longe dos 29/19/12% que se pretendiam para competir com a 980, esperava mais neste jogo em particular.

É esperar por mais relatos das interwebs e da malta daqui.
 
Eu gostava que as reviews testassem mais também o improvement do Multi threading de 15%
Mas como sempre os reviews só testam com as bestas dos i7's com ultra overclocks e com gráficas de topo.

Não custava nada pegar num CPU low end em cenário de bottleneck e testar os 15%.
 
Eu gostava que as reviews testassem mais também o improvement do Multi threading de 15%
Mas como sempre os reviews só testam com as bestas dos i7's com ultra overclocks e com gráficas de topo.

Não custava nada pegar num CPU low end em cenário de bottleneck e testar os 15%.
Também não percebo nada isso. Sei que querem testar o máximo que a gráfica dá, mas há muita gente com i5 que se calhar com esta dirvers ganha tem mais melhorias eles deviam fazer os testes sempre com gamas diferentes de CPUs
 
Eu não tenho nada contra usar o máximo CPU possível para testar o performance quando a review é feita a uma gráfica, aí acho correcto.

Agora a uma driver, em que uma das funcionalidades é o melhoramento do performance multi threading que é aonde a AMD está muito mal posicionada, poderiam ter testado para sabermos a relevância das alterações.

Ho well a GAMEGPU e a Techpowerup depois testa nos jogos novos, e aí vê se a diferença.
 
Andei a ler comentários em alguns fóruns e parece que existem aumentos de performance significativos em jogos como far cry 4, AC Unity, COD AW, watch dogs entre outros com as R9 280X e R9 290(x), alguns utilizadores afirmam que sentem mais fluidez com os mesmos frames em alguns jogos e notam melhor qualidade de imagem! A minha curiosidade voltou a subir, era bom que alguém por cá chegasse à frente e fizesse uns testes! :P
 
Última edição:
Back
Topo