Gráfica Nvidia: AMD’s Fusion Does Not Make Sense, Intel’s Larrabee Is a GPU of 2006, PhysX an

Nvidia: AMD’s Fusion Does Not Make Sense, Intel’s Larrabee Is a GPU of 2006, PhysX and CUDA Are The Future.

Just ahead of its Nvision event that kicks off on Monday, Nvidia Corp. decided to once again share its view on the future of computer industry and the products of its competitors, ATI, graphics product group of Advanced Micro Devices, and Intel Corp., who yet has to reveal its discrete graphics processing units (GPUs).
Nvidia: CPU-GPU Does Not Make Sense…

Since the merge between AMD and ATI Technologies in late 2006, the newly formed company has been working on development of central processing units with built-in GPU core. In fact, Intel is also developing its processors that feature graphics processing capabilities. The new chips will hardly offer truly high performance, but will reduce the amount of energy computers consume, their sizes and eventually pricing. But Nvidia believes that such products, which AMD calls Fusion, do not make any sense.

“Joining both components on the same die doesn’t buy you that much. It’s not like there’s a real bottleneck there. And every square millimeter you add to the die is a very expensive millimeter. It’s an incremental expense, not a linear function. It’s cheaper to separate them,” said John Montrym, the chief architect of Nvidia G200, the GPU that powers GeForce GTX 200-series GPUs, reports PC Pro web-site.

For years entry-level personal computers relied on core-logic sets with built-in graphics core, as such a chipset is cheaper than discrete core-logic and graphics card. Nvidia also has a lineup of such chipsets, but there is a problem for the company: once AMD and Intel launch their CPU-GPU products, hardly a significant amount of customers would need those chipsets with integrated graphics, which is a reason why Nvidia reportedly plans to halt its core-logic business (even though Nvidia denies it has such intentions).

“The class of buyer who buys that type of graphics isn’t really buying graphics. They don’t care about it. You’re working out what you can really afford to put on a CPU, and you’re selling it to a customer who doesn’t care. The economics don’t make sense,” said Andy Keane, general manager of Nvidia’s GPU computing group.

It is not completely clear why Nvidia still sells integrated chipsets compatible with AMD’s and Intel’s CPUs to people, who do not care about performance of graphics cores inside their PCs.
… Intel’s Larrabee Also Makes No Sense, It’s a GPU from 2006 …

Intel plans to enter the market of discrete graphics processors sometime in 2009, but while it has released certain details of its chip, it has never disclosed any specifications, which allows its competitors to claim that Larrabee will never become a success.

“There’s an incredible amount about Larrabee that’s undefined. You can’t just say ‘it’s x86 so it’s going to solve the massively parallel computing problem’,” said Mr. Keane.

Intel hopes that x86-compatible processing engines inside its Larrabee GPU will allow it to offer better programmability compared to existing ATI Radeon or Nvidia GeForce products while still retaining compatibility with DirectX and OpenGL application programming interfaces. One of the problem is that Intel’s Larrabee substitutes certain traditional graphics processors’ blocks, such as render back ends (RBEs) with software implementation, something, which may greatly reduce actual performance of the solution.

“Intel is not a stupid company. They’ve put a lot of people behind this, so clearly they believe it’s viable. But the products on our roadmap are competitive to this thing as they’ve painted it. The reality is going to fall short of the optimistic way they’ve painted it,” said Mr. Montrym.

In addition, Mr. Montrym quoted technology analyst Peter Glaskowsky as saying that Intel’s Larrabee would demonstrate performance on par with ATI or Nvidia solution from 2006.

“As Peter Glaskowsky said, the ‘large’ Larrabee in 2010 will have roughly the same performance as a 2006 GPU from Nvidia or ATI,” Mr. Montrym claimed.

Mr. Glaskowsky denied that he made such a claim and said that Nvidia mis-quoted him.

“What I actually described as equating to ‘the performance of a 2006-vintage... graphics chip’ was a performance standard defined by Intel itself – running the game F.E.A.R. at 60 fps in 1600 x 1200-pixel resolution with four-sample antialiasing,” said Mr. Glaskowsky.

The problem with Intel Larrabee performance is that Intel has not defined performance, but offered estimations of performance and scalability of its future graphics architecture. Still, despite of not having any details about actual speed of Larrabee, Nvidia called the chip due in 2009 or 2010 as one having “roughly the same performance as a 2006 GPU from Nvidia or ATI”.
… CUDA and PhysX: That’s The Future, Says Nvidia

Nvidia admits that it underestimated performance of ATI Radeon HD 4850 and 4870 graphics cards and now faces tough times on the market. However, the company will work harder from now on.

“We underestimated ATI with respect to their product. We’ve looked very closely at this, and we know there are certain things we can do better. There will be improvements to things from all angles: there are some easy fixes in the software domain that will soon be forthcoming. Believe me, it’s a very prime focus of ours,” said Mr. Montrym.

But the company claims that thanks to its compute unified device architecture (CUDA) compiler as well as PhysX application programming interface, owners of the GeForce 8, 9 and GTX 200-series graphics cards will still get benefits. He did not indicate how can gamers take advantage of CUDA, which is aimed mostly at non-consumer applications.

“ATI did not spend on things like PhysX and CUDA. But we believe that people value things beyond graphics. If you compare only on graphics, that's a relative disadvantage to us, but the notion of what you measure a GPU on will change and evolve. We are forward-looking. And sometimes, when someone is forward-looking, they get a little bit ahead of the game. And that's kind of where we are,” said Mr. Montrym.

Fonte: http://www.xbitlabs.com/news/video/...PU_of_2006_PhysX_and_CUDA_Are_The_Future.html
 
Esta foi um tiro no pé que mais valia não ter dito nada:

Fusion
Joining both components on the same die doesn’t buy you that much. It’s not like there’s a real bottleneck there. And every square millimeter you add to the die is a very expensive millimeter. It’s an incremental expense, not a linear function. It’s cheaper to separate them,” said John Montrym, the chief architect of Nvidia G200

Depois de ter construído o GT200, um chip gigantesco (dobro do RV770) e ineficiente vem dizer que juntar CPU+GPU é muito caro e ineficiente pq o chip fica maior. Faz uma coisa com os seus produtos e diz outra sobre os produtos das outras companhias, isto é, contradiz-se.

http://www.xtremesystems.org/Forums/showpost.php?p=3244007&postcount=5
http://www.xtremesystems.org/Forums/showpost.php?p=3244015&postcount=8
http://www.xtremesystems.org/Forums/showpost.php?p=3244038&postcount=9
 
Última edição:
Esta foi um tiro no pé que mais valia não ter dito nada:



Depois de ter construído o GT200, um chip gigantesco (dobro do RV770) e ineficiente vem dizer que juntar CPU+GPU é muito caro e ineficiente pq o chip fica maior. Faz uma coisa com os seus produtos e diz outra sobre os produtos das outras companhias, isto é, contradiz-se.

http://www.xtremesystems.org/Forums/showpost.php?p=3244007&postcount=5
http://www.xtremesystems.org/Forums/showpost.php?p=3244015&postcount=8
http://www.xtremesystems.org/Forums/showpost.php?p=3244038&postcount=9

não se pode considerar propriamente uma contradição, dado que num caso (fusion) tens um CPU e um GPU, e noutro caso (gt200) tens apenas um GPU.

O que é que isso muda na pratica? nada de especial... mas vai poder sempre defender-se desta forma.

Acho que era facil encontrar coisas mais inteligentes para dizer, do que atacar a eficiencia energetica... but, whatever
 
a nVidia está a ser empurrada pra fora do mercado dos GPU's é o próprio Jen-Hsun que admite que a nVidia irá focalizar-se nos smartphones... mt má onda...

"We've got a future where AMD/Intel ship these hybrid CPU/GPUs on the low end, GPUs like the RV770 and Larrabee at the high end, and NVIDIA is already being pushed out on the chipset side (neither Intel nor AMD wants to be the #2 manufacturer of chipsets for their own CPUs). In the worst case scenario, if NVIDIA gets squeezed by everything I just mentioned over the next few years, what is NVIDIA's strategy going forward? Jen-Hsun actually highlighted one possible direction..."

"Out of nowhere Jen-Hsun threw out quite possibly one of the most important statements I'd ever heard him make, that NVIDIA's mobile strategy is to "completely focus on smartphones".Jen-Hsun went on to say NVIDIA believes the "phone will become the next personal computer".
This highlights an important potential strategy for NVIDIA. If Intel/AMD push NVIDIA out of the conventional PC market with their GPUs/platforms/CPUs, NVIDIA needs to look elsewhere: the mobile phone market is an interesting outlet. Remember this slide from IDF?
By 2012 Intel estimates that it will be shipping ~200M desktop CPUs, ~360M notebook CPUs and around 200M Atom CPUs. The mobile CPU market is just as large as the mobile GPU market, the difference being that margins are much lower. But it's quite feasible that NVIDIA could see a good hunk of its revenue coming from that market, should it be forced out of the GPU market. But it's worth noting that the Intel/AMD/NVIDIA GPU war looks like it will take at least 3 - 5 years to see through.
NVIDIA's approach could also really hamper Intel's push into getting x86 into mobile devices with Atom. NVIDIA would partner its GPU technology with existing CPU manufacturers/architectures (think: ARM), making Intel's competitors much better suited to compete with Intel."




Fonte: http://www.anandtech.com/tradeshows/showdoc.aspx?i=3391
 
Meh, isso para mim é só PR talk..os gajos tão a ver a sua margem de manobra reduzir drasticamente num futuro próximo e fazem esse tipo de declarações mais como publicity stunts do que outra coisa (sem estar a desvalorizar o potencial do Physx e do CUDA, obviamente).
 
a nVidia está a ser empurrada pra fora do mercado dos GPU's é o próprio Jen-Hsun que admite que a nVidia irá focalizar-se nos smartphones... mt má onda...

"Out of nowhere Jen-Hsun threw out quite possibly one of the most important statements I'd ever heard him make, that NVIDIA's mobile strategy is to "completely focus on smartphones".Jen-Hsun went on to say NVIDIA believes the "phone will become the next personal computer".

Penso que o que ele deu a entender é que a Nvidia se retirará do mercado dos chipsets e dos portateis...penso que nas GPU de maior potencia vão continuar a dar em força...pelo menos espero que sim, se não será muito mau para todos nós.
 
Penso que o que ele deu a entender é que a Nvidia se retirará do mercado dos chipsets e dos portateis...penso que nas GPU de maior potencia vão continuar a dar em força...pelo menos espero que sim, se não será muito mau para todos nós.

Segundo o escritor do artigo, esta "batalha" pode durar até 5 anos... mas eventualmente a nVidia ficará lixada... tanto a AMD como a Intel já têm as suas próprias gráficas e não me admira que essas gráficas tenham 1 desempenho superior em sistemas da mesma marca... Espero que a nVidia se aguente, porque muito possivelmente vem aí a prova de fogo da sobrevivência... so espero que não seja assimilada pela Intel um dia... :'(
 
Embora eu perceba o ponto de vista da Nvidia, acho o comentário infeliz e não deveria ter sido feito porque em última instancia e por ridiculo fá-los parecer semi alienados da realidade e digo isto porque: 1. o mercado de GPU's está a mudar e 2. esta "aparentemente" estagnado tecnologicamente.

Passo a explicar

1. O dinheiro de empresas de GPU's vem certamente dos modelos que se vendem massissamente e nos dias de hoje no conceito de cpu separado de gpu não creio que os campeoes de unidades vendidas sejam as X2 ou soluções de SLI/Crossfire. Em termos de mercado global uma enorme fatia é o sector corporativo e o cada vez maior domestico não entusiasta (facilmente comprensivel pela cada vez maior penetração nos "lares"), e visto por esta prespectiva provavelmente o "vintage de 2006" é provavelmente mais do que suficiente para trabalhar/utilizar e mesmo jogar. Mais se considerarmos o novo Hype de netbooks e portabilidade estas soluções de CPU+GPU são consideravelmente interessantes nem que seja pelo consumo energético. E por falar em consumo energético os entusiastas montam maquinas que requerem fontes de 600/700/1000 W verdadeiros microondas de utilização intensiva e cujos custos são (acreditem) materialmente relevantes nas facturas de electricidade, por isso imaginem agora na prespectivas das empressas que teem 50/100/200 ou mais computadores ligados provavelemente 10 horas por dia ou +-240 dias por ano...

2.Quando se está muito dentro das coisas por vezes perde-se alguma prespectiva "mais real". Imagino que muitos considerarão ofensivo a afirmação de que estamos perante uma estagnação tecnologica de GPU (podem chamar-lhe impasse se preferirem) mas e excepto por razoes de exigência/execução profissional, alguém está a pensaria adquirir um carro com dois motores para que andasse mais depressa um bocado? placas x2 x3, Sli's ou crossfire não são verdadeiramente avanços. Evolução tecnologica é fazer motores melhores com melhores desempenhos e não aumentar a quantidades de motores.
Neste momento estamos numa época de técnica da força (bruta) em vez da força da técnica.

Talvez seja por isso que como eles afirmam "subestimaram" os produtos da ATI
 
E por falar em consumo energético os entusiastas montam maquinas que requerem fontes de 600/700/1000 W verdadeiros microondas de utilização intensiva e cujos custos são (acreditem) materialmente relevantes nas facturas de electricidade, por isso imaginem agora na prespectivas das empressas que teem 50/100/200 ou mais computadores ligados provavelemente 10 horas por dia ou +-240 dias por ano...

Aqui está um grande rombo nos cofres nVidia (apesar da intel ser a grande vendedora de IGP's)... grande parte do mercado mundial é de computadores com gráficas onboard... os cpu's futuros tanto da AMD como da Intel já terão um GPU integrado... Nem sei o que a nVidia poderá lançar como board budget ... com cpu's com grafica integrada e controlador de memória... um southbridge chega pra tudo o resto... Ou seja... no money a ganhar num mercado tão grande, apesar de ser de baixas margens de lucro...
 
Lá está a nVidia a lançar pó para os olhos dos utilizadores...

Agora tudo o que podem fazer é aplicarem-se no discrete gpu e olhar para novos mercados, como o dos telemóveis.

Nada do que eles possam dizer vai alterar o futuro já traçado pela AMD/Intel quanto ao cpu+gpu.

Já se viu que o DX11 traz já calculo de fisica para jogos, deixando a função da nVidia um pouco marginalizada.

Penso que a nVidia deve/vai abraçar a ideia de que precisam de se esforçar muito para fazerem render o peixe. Eles tem noção que as coisas vão mudar drásticamente, tudo o que podem fazer é tentar despejar algum FUD para se manterem psicologicamente no topo e eventualmente atrasar a carruagem.


Cumps
 
Back
Topo