[Rumor] Nvidia GT300

quem dá 300€ ou 400€ por uma gráfica certamente que não está preocupado com o consumo...

Eu já é a terceira vez consecutiva que dou esse valor ou mais por uma gráfica e preocupa-me imenso o consumo das mesmas, só as tenho porque para encher um monitor 1900x1200 com boa qualidade não é para qualquer gráfica.

Estou desejoso que finalmente saia uma gráfica que satisfaça o meu monitor em todos os jogos que jogo com boa qualidade e que seja económica e fresca o que não é o caso das ultimas gráficas que comprei.

Preocupa-me muito o arrombo na factura e na minha consciencia ambiental.
 
Eu já é a terceira vez consecutiva que dou esse valor ou mais por uma gráfica e preocupa-me imenso o consumo das mesmas, só as tenho porque para encher um monitor 1900x1200 com boa qualidade não é para qualquer gráfica.

Estou desejoso que finalmente saia uma gráfica que satisfaça o meu monitor em todos os jogos que jogo com boa qualidade e que seja económica e fresca o que não é o caso das ultimas gráficas que comprei.

Preocupa-me muito o arrombo na factura e na minha consciencia ambiental.

Se calhar tas a desejar coisas impossiveis.
Eu tb queria ter um ferrari a gastar combustivel e a poluir tanto quanto um Smart.

Ja existem actualmente coisas como hybrid-power, hybrid-crossfire, switch-graphics, mas pelos vistos o mercado não está muito interessado.
Para alem que as ultimas gerações de graficas têm até consumos em idle bastante reduzidos para o poder grafico de processamento que têm. Entre Idle e full Load as diferenças são enormes.

E também há que ter em conta que as proximas gerações de CPU's daqui a 1/2 anos vão integrar GPU's, portanto não vale a pena tar a investir em tecnologias que daqui a 1 ano ja têm os dias contados. Os IGP's até 2012 vao desaparecer, ou pelo menos vão passar a ser 100x menores que aquilo que hoje são quando esses CPU's sairem.
 
Última edição:
Se calhar tas a desejar coisas impossiveis.
Eu tb queria ter um ferrari a gastar combustivel e a poluir tanto quanto um Smart.

Ja existem actualmente coisas como hybrid-power, hybrid-crossfire, switch-graphics, mas pelos vistos o mercado não está muito interessado.
Para alem que as ultimas gerações de graficas têm até consumos em idle bastante reduzidos para o poder grafico de processamento que têm. Entre Idle e full Load as diferenças são enormes.

E também há que ter em conta que as proximas gerações de CPU's daqui a 1/2 anos vão integrar GPU's, portanto não vale a pena tar a investir em tecnologias que daqui a 1 ano ja têm os dias contados. Os IGP's até 2012 vao desaparecer, ou pelo menos vão passar a ser 100x menores que aquilo que hoje são quando esses CPU's sairem.

Desculpem lá, mas já que se está a falar de consumos, e tendo em conta o quanto uma placa gasta em idle, tenho que concordar completamente com o Stylus, especialmente se se considerar um IGP/GPUinCPU. Não faz sentido nenhum estar a gastar dezenas, às vezes mais de uma centena de Watts num pedaço de silicone que não está a fazer nada de nada em 3D. É ridiculamente absurdo. Sim, o mercado pode estar "bezerrinho" demais em vez de reclamar eficiência, mas eu não sou um desses.

Tenho um IGP desligado por causa da 4670 e eu até só queria que ela se ligasse assim que os drivers percebessem que estou para começar um jogo. Os drivers sabem fazer isso, pois as optimizações em cada jogo já são famosas, os fabricantes é que não querem implementar isso.
Entretanto tenho de gramar com a gráfica a aquecer-me a sala desnecessariamente! :nonono2:
 
Vamos todos gastar 1000w energia para poder jogar o Crysis a 1000fps quando o nosso monitor para o jogar sem dithering deve-se jogar a 75fps (75hz)

depois quando os nossos filhos quiserem jogar também, pode ser que já nem tenham é um mundo decente..

Alias vamos abolir o ROHS também, pode ser que consigamos mais 2Fps ou assim
sinceramente assusta-me ver comentários do tipo: "Não me interessa o consumo.. quero é performance"

Desculpem-me, mas fiquei chocado!
 
Vamos todos gastar 1000w energia para poder jogar o Crysis a 1000fps quando o nosso monitor para o jogar sem dithering deve-se jogar a 75fps (75hz)

depois quando os nossos filhos quiserem jogar também, pode ser que já nem tenham é um mundo decente..

Alias vamos abolir o ROHS também, pode ser que consigamos mais 2Fps ou assim
sinceramente assusta-me ver comentários do tipo: "Não me interessa o consumo.. quero é performance"

Desculpem-me, mas fiquei chocado!

oi? Então mas agora também já não posso ter o computador que quero só porque consome muita energia?

o melhor mesmo era acabar com o folding, já viste o número de máquinas em todo o mundo a foldar? ganda consumo...! :\
 
oi? Então mas agora também já não posso ter o computador que quero só porque consome muita energia?

o melhor mesmo era acabar com o folding, já viste o número de máquinas em todo o mundo a foldar? ganda consumo...! :\

As coisas não se "medem" nessa proporção;... tem que haver "lógica" nestes conceitos!

Cumps!

\w/
 
Falam em desejar coisas impossiveis, mas à 3 meses também achavam impossivel uma gráfica como a 4770 com aquele desempenho a €90.

Se olharmos ás optimizações que os portateis têm em relação a consumos das gráficas entre os vários estágios de desempenho vemos que seria possivel aplicar o mesmo sistema numa gráfica convencional, e olhem que a margem de lucro nos portateis é mais curta que nos componentes dedicados.

Eu acredito que daqui a um ano existam gráficas na casa dos €200 com com um comsumo de 150w idle e cerca de 200w full com o desempenho de uma 4870X2.

Ou seja com este desempenho já enche um monitor a 1900x1200 com uns filtros valentes e teria um bom consumo.

Ex: Uma 4870 em muitos dos casos tem o mesmo desmpenho que uma 3870X2 a 1900x1200.

As gráficas de topo single core do momento já não estão muito longe, o problema é que ao escalar as resoluções elas começem a deixar de "brilhar". Penso só isto faltar para se tornar uma realidade. Não encontro nenhuma utopia aqui.
 
oi? Então mas agora também já não posso ter o computador que quero só porque consome muita energia?

o melhor mesmo era acabar com o folding, já viste o número de máquinas em todo o mundo a foldar? ganda consumo...! :\

Podes fazer o que quiseres, mas achas esse comentário responsável e racional?

Já agora sabes para que serve o folding? Fica sabendo que é por uma causa nobre, pores o teu pc ao dispor para resolver calculos complexos para fins cientificos! Pode ser que estejam a ajudar a descobrir a cura para o cancro que pode vir a ajudar o teu filho.

PS nunca foldei e isto é completamente offtopic
 
Em idle uma grafica gasta em média entre 10-20-40-60W dependendo do segmento.
O que voces vêm nas reviews é o total power consuption do pc todo.

4890power.png

rhd4770_power.png
 
Última edição:
As coisas não se "medem" nessa proporção;... tem que haver "lógica" nestes conceitos!

Cumps!

\w/

Podes fazer o que quiseres, mas achas esse comentário responsável e racional?

Já agora sabes para que serve o folding? Fica sabendo que é por uma causa nobre, pores o teu pc ao dispor para resolver calculos complexos para fins cientificos! Pode ser que estejam a ajudar a descobrir a cura para o cancro que pode vir a ajudar o teu filho.

PS nunca foldei e isto é completamente offtopic

Onde é que ponho o smilie da ironia...? :rolleyes:
 
oi? Então mas agora também já não posso ter o computador que quero só porque consome muita energia?

o melhor mesmo era acabar com o folding, já viste o número de máquinas em todo o mundo a foldar? ganda consumo...! :\
e o que tem a ver?

uma coisa é gastares energia para algum fim! Outra é para teres mais 2 fps num jogo...

E além do mais, se te dessem uma maquina de foldar (deves estar a falar em clientes gráficos, neste caso) que gastasse menos do que o actual que possuis irias recusar?

Btw: A liberdade de um, acaba onde começa a dos outros


Ainda por cima, menos consumo é igual a um possivel teorico maior escalonamento e performance de um sistema
 
A look at the Nvidia GT300 architecture

Analysis Compromised by wrong vision
By Charlie Demerjian


Thursday, 14 May 2009, 00:55






THERE'S A LOT of fake news going around about the upcoming GPUish chip called the GT300. Let's clear some air on this Larrabee-lite architecture.
First of all, almost everything you have heard about the two upcoming DX11 architectures is wrong. There is a single source making up news, and second rate sites are parroting it left and right. The R870 news is laughably inaccurate, and the GT300 info is quite curious too. Either ATI figured out a way to break the laws of physics with memory speed and Nvidia managed to almost double its transistor density - do the math on purported numbers, they aren't even in the ballpark - or someone is blatantly making up numbers.
That said, lets get on with what we know, and delve into the architectures a bit. The GT300 is going to lose, badly, in the GPU game, and we will go over why and how.
First a little background science and math. There are three fabrication processes out there that ATI and Nvidia use, all from TSMC, 65nm, 55nm and 40nm. They are each a 'half step' from the next, and 65nm to 40nm is a full step. If you do the math, the shrink from 65nm to 55nm ((55 * 55) / (65 *65) ~= 0.72) saves you about 1/4 the area, that is, 55nm is 0.72 of the area of 65nm for the same transistor count. 55nm shrunk to 40nm gives you 0.53 of the area, and 65nm shrunk to 40nm gives you 0.38 of the area. We will be using these later.
Second is the time it takes to do things. We will use the best case scenarios, with a hot lot from TSMC taking a mere six weeks, and the time from wafers in to boards out of an AIB being 12 weeks. Top it off with test and debug times of two weeks for first silicon and one week for each subsequent spin. To simplify rough calculations, all months will be assumed to have 4 weeks.
Okay, ATI stated that it will have DX11 GPUs on sale when Windows 7 launches, purportedly October 23, 2009. Since this was done in a financial conference call, SEC rules applying, you can be pretty sure ATI is serious about this. Nvidia on the other hand basically dodged the question, hard, in its conference call the other day.
At least you should know why Nvidia picked the farcical date of October 15 for its partners. Why farcical? Lets go over the numbers once again.
According to sources in Satan Clara, GT300 has not taped out yet, as of last week. It is still set for June, which means best case, June 1st. Add six weeks for first silicon, two more for initial debug, and you are at eight weeks, minimum. That means the go or no-go decision might be made as early as August 1st. If everything goes perfectly, and there is no second spin required, you would have to add 90 days to that, meaning November 1st, before you could see any boards.
So, if all the stars align, and everything goes perfectly, Nvidia could hit Q4 of 2009. But that won't happen.
Why not? There is a concept called risk when doing chips, and the GT300 is a high risk part. GT300 is the first chip of a new architecture, or so Nvidia claims. It is also going to be the first GDDR5 part, and moreover, it will be Nvidia's first 'big' chip on the 40nm process.
Nvidia chipmaking of late has been laughably bad. GT200 was slated for November of 2007 and came out in May or so in 2008, two quarters late. We are still waiting for the derivative parts. The shrink, GT206/GT200b is technically a no-brainer, but instead of arriving in August of 2008, it trickled out in January, 2009. The shrink of that to 40nm, the GT212/GT200c was flat out canceled, Nvidia couldn't do it.
The next largest 40nm part, the GT214 also failed, and it was redone as the GT215. The next smallest parts, the GT216 and GT218, very small chips, are hugely delayed, perhaps to finally show up in late June. Nvidia can't make a chip that is one-quarter of the purported size of the GT300 on the TSMC 40nm process. That is, make it at all, period - making it profitably is, well, a humorous concept for now.
GT300 is also the first DX11 part from the green team, and it didn't even have DX10.1 parts. Between the new process, larger size, bleeding-edge memory technology, dysfunctional design teams, new feature sets and fab partners trashed at every opportunity, you could hardly imagine ways to have more risk in a new chip design than Nvidia has with the GT300.
If everything goes perfectly and Nvidia puts out a GT300 with zero bugs, or easy fix minor bugs, then it could be out in November. Given that there is only one GPU that we have heard of that hit this milestone, a derivative part, not a new architecture, it is almost assuredly not going to happen. No OEM is going to bet their Windows 7 launch vehicles on Nvidia's track record. They remember the 9400, GT200, and well, everything else.
If there is only one respin, you are into 2010. If there is a second respin, then you might have a hard time hitting Q1 of 2010. Of late, we can't think of any Nvidia product that hasn't had at least two respins, be they simple optical shrinks or big chips.
Conversely, the ATI R870 is a low risk part. ATI has a functional 40nm part on the market with the RV740/HD4770, and has had GDDR5 on cards since last June. Heck, it basically developed GDDR5. The RV740 - again, a part already on the market - is rumored to be notably larger than either the GT216 or 218, and more or less the same size as the GT215 that Nvidia can't seem to make.
DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality.
This had several effects, the most notable being that the now castrated DX10 was a pretty sad API, barely moving anything forward. It also meant that ATI spent a lot of silicon area implementing things that would never be used. DX10.1 put some of those back, but not the big ones.
DX11 is basically what DX10 was meant to be with a few minor additions. That means ATI has had a mostly DX11 compliant part since the HD2900. The R870/HD5870 effectively will be the fourth generation DX11 GPU from the red team. Remember the tessellator? Been there, done that since 80nm parts.
This is not to say that is will be easy for either side, TSMC has basically come out and said that its 40nm process basically is horrid, an assertion backed up by everyone that uses it. That said, both the GT300 and R870 are designed for the process, so they are stuck with it. If yields can't be made economically viable, you will be in a situation of older 55nm parts going head to head for all of 2010. Given Nvidia's total lack of cost competitiveness on that node, it would be more a question of them surviving the year.
That brings us to the main point, what is GT300? If you recall Jen-Hsun's mocking jabs about Laughabee, you might find it ironic that GT300 is basically a Larrabee clone. Sadly though, it doesn't have the process tech, software support, or architecture behind it to make it work, but then again, this isn't the first time that Nvidia's grand prognostications have landed on its head.
The basic structure of GT300 is the same as Larrabee. Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.
Before you jump up and down, and before all the Nvidiots start drooling, this is a massive problem for Nvidia. The chip was conceived at a time when Nvidia thought GPU compute was actually going to bring it some money, and it was an exit strategy for the company when GPUs went away.
It didn't happen that way, partially because of buggy hardware, partially because of over-promising and under-delivering, and then came the deathblows from Larrabee and Fusion. Nvidia's grand ambitions were stuffed into the dirt, and rightly so.
Nvidia Investor Relations tells people that between five to ten per cent of the GT200 die area is dedicated to GPU compute tasks. The GT300 goes way farther here, but let's be charitable and call it 10 per cent. This puts Nvidia at a 10 per cent areal disadvantage to ATI on the DX11 front, and that is before you talk about anything else. Out of the gate in second place.
On 55nm, the ATI RV790 basically ties the GT200b in performance, but does it in about 60 per cent of the area, and that means less than 60 per cent of the cost. Please note, we are not taking board costs into account, and if you look at yield too, things get very ugly for Nvidia. Suffice it to say that architecturally, GT200 is a dog, a fat, bloated dog.
Rather than go lean and mean for GT300, possibly with a multi-die strategy like ATI, Nvidia is going for bigger and less areally efficient. They are giving up GPU performance to chase a market that doesn't exist, but was a nice fantasy three years ago. Also, remember that part about ATI's DX10 being the vast majority of the current DX11? ATI is not going to have to bloat its die size to get to DX11, but Nvidia will be forced to, one way or another. Step 1) Collect Underpants. Step 2) ??? Step 3) Profit!
On the shrink from 55nm to 40nm, you about double your transistor count, but due to current leakage, doing so will hit a power wall. Let's assume that both sides can double their transistor counts and stay within their power budgets though, that is the best case for Nvidia.
If AMD doubles its transistor count, it could almost double performance. If it does, Nvidia will have to as well. But, because Nvidia has to add in all the DX11 features, or additional shaders to essentially dedicate to them, its chips' areal efficiency will likely go down. Meanwhile, ATI has those features already in place, and it will shrink its chip sizes to a quarter of what they were in the 2900, or half of what they were in the R770.
Nvidia will gain some area back when it goes to GDDR5. Then the open question will be how wide the memory interface will have to be to support a hugely inefficient GPGPU strategy. That code has to be loaded, stored and flushed, taking bandwidth and memory.
In the end, what you will end up with is ATI that can double performance if it choses to double shader count, while Nvidia can double shader count, but it will lose a lot of real world performance if it does.
In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.
The same should hold true for all DX11 features, ATI has dedicated hardware where applicable, Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.
Worse yet, when the derivatives come out, the proportion of shaders needed to run DX11 will go up for Nvidia, but the dedicated hardware won't change for ATI. It is currently selling parts on the low end of the market that have all the "almost DX11" features, and is doing so profitably. Nvidia will have a situation on its hands in the low end that will make the DX10 performance of the 8600 and 8400 class parts look like drag racers.
In the end, Nvidia architecturally did just about everything wrong with this part. It is chasing a market that doesn't exist, and skewing its parts away from their core purpose, graphics, to fulfill that pipe dream. Meanwhile, ATI will offer you an x86 hybrid Fusion part if that is what you want to do, and Intel will have Larrabee in the same time frame.
GT300 is basically Larrabee done wrong for the wrong reasons. Amusingly though, it misses both of the attempted targets. R870 should pummel it in DX10/DX11 performance, but if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. Maybe. Yield problems notwithstanding.
GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee. µ




Fonte







Realmente faz sentido muita coisa que é dita. A GT300 vai ser a primeira placa da nVidia a ter GDDR5, a ter DX10.1, a ter DX11 e tudo isto numa placa de 40 nm (que ainda nunca teve saída comercial de nenhum modelo). Adiciona-se o CUDA e o Physix e há que se perguntar como é que eles vão conseguir fazer tudo bem à primeira quando a ATI levou uma geração de cada vez a implementar uma destas alterações e ainda ter FPS competitivos o suficiente.
DX10 original - Radeon 2xxx

DX10.1 - Radeon 3xxx
GDDR5 - Radeon 48xx
40 nm - Radeon 47xx
DX11 - Radeon 5xxx


Será que vale a pena acumular os trocos à espera da GT300? Parece que não, mas o futuro o dirá.
 
Apesar de achar que a Nvidia andou a dar muito tiros nos pés, este artigo pinta um quadro demasiado negro para sequer pensar que seja verdade.
Todos sabem que os GPU´s da Nvidia são Megalomanos, e também que foi devido à Nvidia que muitas da features do DX10 foram postas de lado e só agora aparecem no DX11.
Também já tinha lido que a ATI estava uma geração à frente da Nvidia e só devido aos movimentos dos bastidores é que permitiram que as features que iriam fazer as placas da ATI brilhar tinham sido postas de molho pelos developers.
Mas também não acredito que a Nvidia esteja assim tão mal, se metade do que se disse acima fosse verdade era melhor que o pessoal que tivesse acções da Nvidia começasse a vendê-las e nós tinhamo-nos que preparar para passar a pagar muito mais pelas placas gráficas.~

Não gosto do que a Nvidia anda a fazer à mais de 2 anos, mas a última coisa que agora precisamos é que esta vá ao fundo.
 
Por vezes as companhias devem passar mesmo pelo fundo, para que abram os olhos e dêem "cordinha aos sapatos"...

Lembram-se da mudança Geforce FX -> Geforce 6xxx? :D
 

Isso nem merecia ser comentado :o

Vamos ver quando o openCL e o GPGPU do DX11 se massificarem para depois vermos quem realmente anda a gerações atrás :P A diferença de eficiência é simplesmente abismal para sequer ser comparada :P Já existe um caso bem real onde se pode ver a desgraça da ATI... vão comparar os ppd's dos dois clientes de GPU do folding e depois tirem uma ideia ;) A arquitectura por domínios rígidos da ATI é completamente ineficiente e muito difícil de tirar total partido. Vejam programming guides dos dois para perceberem o que digo...
Depois há a enorme dependência nos drivers que correm grande parte do trabalho no CPU... sinceramente esta geração do brook+ mais parece uma anedota :o

Para mim o DX10.1 continua a ser hyped por parte da ATI sem produtos em nº suficiente que usem realmente isso... e o tesselation é engraçado a sua referência nos últimos tempos... sabem porque é que não se falava nele? porque ou não é suportado em praticamente nenhuma aplicação e quando o é a performance é vergonhosa... Isto para dizer que essa feature sempre foi ridícula e só agora começa a fazer realmente sentido em traze-la de volta pois finalmente começa a haver capacidade de processamento que a aguente... A própria nVIDIA teve a sua pseudo-versão do tesselation há uns anos atrás na altura da GeForce 256 (tnh ainda alí uns panfletos da creative labs da altura que publicitava precisamente essa feature) mas acabaram por a deixar de suportar nas GeForces 2 GTS e nunca mais se falou nisso (juntamente com o z-Buffer de 32-bit que tinha mais 8-bits de stencil que na alturam revelaram-se ser uma grande treta e aquilo nunca funcionou decentemente).
 
Isso nem merecia ser comentado :o

Vamos ver quando o openCL e o GPGPU do DX11 se massificarem para depois vermos quem realmente anda a gerações atrás :P A diferença de eficiência é simplesmente abismal para sequer ser comparada :P Já existe um caso bem real onde se pode ver a desgraça da ATI... vão comparar os ppd's dos dois clientes de GPU do folding e depois tirem uma ideia ;) A arquitectura por domínios rígidos da ATI é completamente ineficiente e muito difícil de tirar total partido. Vejam programming guides dos dois para perceberem o que digo...
Depois há a enorme dependência nos drivers que correm grande parte do trabalho no CPU... sinceramente esta geração do brook+ mais parece uma anedota :o

Isso é uma questão, mas tb é uma falsa questão. Os GPU´s por mais que se dê a volta foram feitos para jogar e é isso que motiva a compra de uma placa graficas.
Quando o GPGPU se massificar vamos tar a falar daqui a 1-2 senão mais gerações a frente com coisas completamente diferentes do que temos hoje.
O cliente de folding também é um fraco exemplo. Para tirares mais conclusões terias que correr o mesmo programa possivelmente na mesma linguagem em ambas as graficas para tirar conclusões. E mesmo assim so 1 programa não seria suficiente. Teriam que ser vários.

Simplesmente a AMD não está obcecada com isso. É uma coisa que virá com o tempo e que terá um aumento do suporte gradual.

muddymind disse:
Para mim o DX10.1 continua a ser hyped por parte da ATI sem produtos em nº suficiente que usem realmente isso... e o tesselation é engraçado a sua referência nos últimos tempos...

DX_10.1 ou tesselation é tão hyped e util quando Physix ou Cuda. É normal as companhias fazerem markting á volta das suas features.
 
Última edição:
Isso é uma questão, mas tb é uma falsa questão. Os GPU´s por mais que se dê a volta foram feitos para jogar e é isso que motiva a compra de uma placa graficas.
Quando o GPGPU se massificar vamos tar a falar daqui a 1-2 senão mais gerações a frente com coisas completamente diferentes do que temos hoje.

Cada vez mais esse conceito de gráfica para jogar está a cair por terra e isso é mais que evidente... desde video transcoding que ambas a nVIDIA e ATI publicitam (e mais uma vez a velocidade da ATI é uma miséria comparada com a nVIDIA) até ao novo photoshop onde o boost de performance é tremendo devido ao CUDA. Não há volta a dar, o GPGPU veio para ficar e a ATI nesse campo ou acorda ou perde o comboio...

Os primeiros drivers OpenCL da nVIDIA já foram para o kronos para aprovação e não tarda nada estão cá fora para todas as plataformas com boa performance (já que o opencl é praticamente idêntico ao CUDA). E nessa altura vai deixar de haver pretextos para não se desenvolver para essa tecnologia já que vai ser um standart aberto multi-plataforma. Continuas a achar que é uma falsa questão? Achas que isso não vai ser mesmo o maior boom da próxima geração? give me a break :o Espera até começares a ver tudo o que é encoding/decoding, rendering e sabe-se lá mais o quê por GPGPU e depois falamos :P

O cliente de folding também é um fraco exemplo. Para tirares mais conclusões terias que correr o mesmo programa possivelmente na mesma linguagem em ambas as graficas para tirar conclusões. E mesmo assim so 1 programa não seria suficiente. Teriam que ser vários.

O cliente de folding é o melhor exemplo que se pode mostrar da desgraça que é o stream da ATI... quer dizer, se numa suposta linguagem mais optimizada tem esta performance então nem quero imaginar com linguagens mais generalistas onde o compilador/tradutor não pode fazer maravilhas.

Vê o programa de transcoding da ATI e o badaboom nas nVIDIA e depois compara a performance para teres mais uma confirmação do mesmo :P Aliás, numa recente entrevista ao director de markting (penso eu) da AMD que foi postada aqui no fórum deu mesmo para ver que eles se tão mesmo a "lixar" para isto o que é triste...

Simplesmente a AMD não está obcecada com isso. É uma coisa que virá com o tempo e que terá um aumento do suporte gradual.

Uma coisa é não estar obcecada e outra é estar a borrifar-se para a questão... Se eles alguma vez quiserem ser competitivos nesta área ele vão ter de refazer fortemente a arquitectura do GPU e não é com essa atitude do deixa andar que vão longe :rolleyes:


DX_10.1 ou tesselation é tão hyped e util quando Physix ou Cuda. É normal as companhias fazerem markting á volta das suas features.

Daí concordo mas tirava o Cuda daí para fora já que como expliquei anteriormente ele vai dar suporte a OpenCL e nesse campo não o considero hyped. De resto sim, concordo perfeitamente com o physx ser hyped e é completamente óbvio que plataformas proprietárias tendem sempre a cair por terra...
 
Back
Topo