AMD: 'Huge, monolithic' chips not our style

.DX.

Power Member
Advanced Micro Devices' ATI graphics chip unit doesn't want to build "huge" chips like rival Nvidia, an executive says.

But an Nvidia exec says smaller isn't always better or more efficient.

Such statements will help define how the two chip giants do battle at the high end of the graphics chip market in the coming years.

One of the largest graphics chips yet will be Nvidia's upcoming high-end GTX 280. This is the kind of chip that high-end gaming enthusiasts crave. But great performance often means a large transistor count. And the GTX 280 is expected to have both.

AMD, of course, also intends to deliver extreme graphics technology with its upcoming X2, a follow-on to the current 3870 X2 series. And AMD wants to be clear: its strategy is fundamentally different than Nvidia's.

"We took two chips and put it on one board (X2). By doing that we have a smaller chip that is much more power efficient," said Matt Skynner, vice president of marketing for the graphics products group at AMD.

"We believe this is a much stronger strategy than going for a huge, monolithic chip that is very expensive and eats a lot of power and really can only be used for a small portion of the market," he said. "Scaling that large chip down into the performance segment doesn't make sense--because of the power and because of the size."

Skynner said that AMD tries to design GPUs (graphics processing units) for the mainstream segment of the market, then ratchet up performance by adding GPUs rather than designing one large, very-high-performance chip.

Nvidia's "strategy is to design for the highest performance at all cost. And we believe designing for the sweet spot and then leveraging for the extreme enthusiast market with multiple GPUs is the preferred approach," Skynner said.

This applies to memory too. AMD thinks support for technologies like GDDR5 memory is another way to deliver good performance at a reasonable cost. "You don't need a huge chip with a huge data path to get the bandwidth. You can utilize a technology like GDDR5 to get that bandwidth," Skynner said.

Nvidia tends to favor very-fast, single-chip solutions.

Nvidia, of course, has a different take on why it chooses to develop big, fast chips.

"If you take two chips and put them together, you then have to add a bridge chip that allows the two chips to talk to each other...And you can't gang the memory together," said Ujesh Desai, general manager for GeForce products at Nvidia.

"So when you add it all up, you now have the power of two GPUs, the power of the bridge chip, and the power that all of that additional memory consumes. That's why it's too simplistic of an argument to say that two smaller chips is always more efficient."

Desai takes this argument a bit further. "They don't have the money to invest in high-end GPUs anymore. At the high end, there is no prize for second place. If you're going to invest a half-billion dollars--which is what it takes to develop a new enthusiast-level GPU--you have to know you're going to win. You either do it to win, or you don't invest the money."

(Note: Nvidia does offer GeForce 9800 GX2 technology but the GX2 uses a dual-board design--two 9800 chips, one on each board--rather than putting two chips on a single board as with AMD's Radeon HD 3870 X2.)

http://news.cnet.com/8301-10784_3-9952006-7.html?part=rss&subj=news&tag=2547-1040_3-0-5
 
Uma afirmação ridícula da AMD, já que o TDP da HD4870 X2 será muito similar ao da GTX 280.

O desta última está nos 240W.
O TDP da RV770 XT está acima dos 150W, por isso, mesmo que a versão dual-RV770 baixe drasticamente os clocks (logo, também a performance) o TDP final será sempre superior a 200W, e pode mesmo ultrapassar os 240W da Nvidia -tendo em conta a duplicação de recursos que obriga a usar bridges PCI-Express-.
 
Última edição:
ora exacto, e tambem, who cares for tdp?

prefiro jogar crysis a topo numa grafica que consuma 200w do que jogar cheio de breaks numa que consuma 150w
 
A Nvidia até hoje nunca consegiu foi colocar dois chips na mesma board...

A ATI está longe de estar assim tão mal.. e o futuro aproxima-se risonho até..

com o lançamento sem problemas e com fartura das HD4XXX, e as notícas do bom desenvolcimento dum novo chip já a 6 meses de distãncia..

A AMD anda mal é noutro ramo de negócio...isso sim..
Gostava era de ver esta afirmação "de não produzir mais chips monolíticos" aplicados aos cpu's..
já que a ideia de por um Real-Quad cá fora, pode ter custado biliões à AMD e ter sido o facto causador de toda esta crise...
 
Última edição:
A Nvidia até hoje nunca consegiu foi colocar dois chips na mesma board...

A ATI está longe de estar assim tão mal.. e o futuro aproxima-se risonho até..

com o lançamento sem problemas e com fartura das HD4XXX, e as notícas do bom desenvolcimento dum novo chip já a 6 meses de distãncia..

A AMD anda mal é noutro ramo de negócio...isso sim..
Gostava era de ver esta afirmação "de não produzir mais chips monolíticos" aplicados aos cpu's..
já que a ideia de por um Real-Quad cá fora, pode ter custado biliões à nvidia e ter sido o facto causador de toda esta crise...
A Nvidia tem um real-quad??8|Esta não sabia eu
 
A Nvidia até hoje nunca consegiu foi colocar dois chips na mesma board...

A ATI está longe de estar assim tão mal.. e o futuro aproxima-se risonho até..

com o lançamento sem problemas e com fartura das HD4XXX, e as notícas do bom desenvolcimento dum novo chip já a 6 meses de distãncia..

A AMD anda mal é noutro ramo de negócio...isso sim..
Gostava era de ver esta afirmação "de não produzir mais chips monolíticos" aplicados aos cpu's..
já que a ideia de por um Real-Quad cá fora, pode ter custado biliões à AMD e ter sido o facto causador de toda esta crise...


Por acaso existiram várias versões dual Geforce 6800 Ultra num só PCB feitas pela Asus há 4 anos, mas a Nvidia nunca se interessou muito por isso (e duvido que tão cedo o façam, porque duas GPU's num só PCB precisam de mais layers -e ficam assim mais caras- do que dois PCB's mais simples cada um com a sua memória RAM e a sua GPU).
 
Esta de single PCB ser mais caro já foi provado que não é.

os 2 PCB's da 9800 GX2 tem no total mais complexidade que o da 3870X2, requer um cooler "special" de corrida.

E mesmo assim a 9800 GX2 custs 50% mais caro que a solução da ATI, que como dizes é bem mais caro, devido a ser single PCB e utilizar um chip externo.
 
Por acaso existiram várias versões dual Geforce 6800 Ultra num só PCB feitas pela Asus há 4 anos, mas a Nvidia nunca se interessou muito por isso (e duvido que tão cedo o façam, porque duas GPU's num só PCB precisam de mais layers -e ficam assim mais caras- do que dois PCB's mais simples cada um com a sua memória RAM e a sua GPU).

Boas!!!

Depende sempre de como se planeia o pcb...

O custo de investimento poderá ser abatido se, formos um pouco inteligentes e desenvolvermos um pcb que seja adaptavel ás proximas versões...

E é o que vai acontecer com a 3870x2 -> 4870x2

Logo acaba por ficar mais barato...
Se juntarmos a isso, um custo por gpu menor, menos chips para colocar, etc...

Acabamos com um custo extremamente competitivo...

Cumprimentos,

LPC
 
Esta de single PCB ser mais caro já foi provado que não é.

os 2 PCB's da 9800 GX2 tem no total mais complexidade que o da 3870X2, requer um cooler "special" de corrida.

E mesmo assim a 9800 GX2 custs 50% mais caro que a solução da ATI, que como dizes é bem mais caro, devido a ser single PCB e utilizar um chip externo.

Custa mais porque é mais rápida.

E o cooler de "corrida" é igual ao das 9800 GTX (até o modelo da fan é o mesmo). Simplesmente tem pontos de contacto com os chips de ambos os lados. Nada mais.
 
O cooler é mais complexo sim, logo mais caro de fabricar, e ainda tem aqueles plasticos todos.

não tou a dizer que é ruim, atenção, até é uma implementação interessante mas apenas olhando o factor custo.

De qualquer forma, as soluções dual GPU deixam algo a desejar. Eu ca prefiro placas single GPU e poupadas. a 9800 GTX até surpreendeu por não ser "gulosa", apesar das 2 fichas. Não gasta muito mais que a 8800 GT.
 
O cooler é mais complexo sim, logo mais caro de fabricar, e ainda tem aqueles plasticos todos.

não tou a dizer que é ruim, atenção, até é uma implementação interessante mas apenas olhando o factor custo.

De qualquer forma, as soluções dual GPU deixam algo a desejar. Eu ca prefiro placas single GPU e poupadas. a 9800 GTX até surpreendeu por não ser "gulosa", apesar das 2 fichas. Não gasta muito mais que a 8800 GT.

Boas!!!

Habitua-te é o futuro, segundo os planos da ATI... e a Nvidia também andará a estudar o mesmo...

Isto porque já se está a queimar bem com estes gigantes monolíticos...

Em relação ao cooling o mesmo é efectivamente mais complexo que a solução usada na 9800gtx.

No entanto a implementação é mais cara que a 3870x2 pois tens 2 pcb´s completos e não um pcb com menos duplicação de componentes e desenhado de RAIZ para dual GPU...

Cumprimentos,

LPC
 
A "queimar" bem ? :rolleyes:
A GPU (G80) mais bem sucedida da história, e que se manteve no topo da performance gráfica durante um ano e meio (já para não falar dos enormes lucros e ganhos de quota de mercado que deu à empresa) "queimou" a Nvidia ?

:lol:
 
ora exacto, e tambem, who cares for tdp?

prefiro jogar crysis a topo numa grafica que consuma 200w do que jogar cheio de breaks numa que consuma 150w

Er, eu preocupo-me. Pago em média 90 euros de electricidade e uma larga fatia dessa factura deve-se aos PC's.

Penso que quando se fala em reduzir a energia consumida, não será à pala de reduzir a performance. No que toca ao GPU, claro está. Contudo, acredito mais na solução aí noutro topic que fala em desligar o GPU principal e ligar o onboard quando não é necessário.
 
Back
Topo