The Future – According to nVidia

.DX.

Power Member
imageviewaa0.jpg


Last week nVidia held their Spring 2008 Editor’s day, where they presented their forthcoming series of graphics processing units, which will be released next month. While we can’t talk about this new chip series yet due to the Non-Disclosure Agreement (NDA), we can talk about some ideas that nVidia is seeing as “the future of computing” – basically more GPGPU usage (i.e. the use of the graphics chip to process regular programs) and the co-existence of “competing” technologies like ray tracing and rasterization.

During the whole Editor’s Day nVidia repeated ad nauseum how marvelous GPGPU is, showing several examples of applications where performance increased monstrously by the use of this technique. For those who don’t know the concept, the idea is to make the video card GPU to process regular programs instead of using the CPU. What is allowing this to be possible is nVidia’s CUDA compiler, which is capable of compiling any program written in C to be run on any nVidia GPU from series 8 on. We’ve already wrote an article explaining more about this technology.

Is nVidia saying that in the future GPUs will replace CPUs? No exactly. The computer will still need a CPU, but the way nVidia is seeing it the role of the CPU will dramatically decrease in the future. In fact, this is already happening. Thru their “nTeresting” newsletters nVidia has been hammering Intel in the past month, claiming that contrary to what Intel wants you to believe CPU’s aren’t playing an important role on gaming performance anymore and the savvy user should buy a cheaper CPU and spend the saved money on a better video card for a better gaming performance. With GPU performance increasing and more and more tasks that were previously performed on the CPU being transferred to the GPU, this idea makes sense.

With GPGPU this idea will also be valid for regular applications, as soon as mainstream products start to use the GPU for processing, boosting the application performance. During the event Adobe declared that they will start using GPGPU on their forthcoming products, in particular the next version of Photoshop to be released around September, and this could represent the first step towards that direction. Even though from the presentations it is clear that GPGPU can really boost performance on specific applications, the future is always unclear and the performance increase brought by GPGPU for the average user will only depend on software developers upgrading their programs to support it.

It is always important to remind that programs compiled to use GPU’s from nVidia for processing won’t run on ATI’s. Of course final products can detect which video card you have installed on your system and load the CUDA-compiled code – which will provide the performance increase – if you have an nVidia video card.

As for the rasterization vs. ray tracing battle, nVidia is seeing the co-existence of both technologies in the future, as ray tracing is in fact a better technology for some applications, but worse for others. They used as an example the film industry, which use both technologies on movies depending on what needs to be rendered. Nowadays ray tracing isn’t used by games. So by this talk we may expect future GPUs and games to support ray tracing? Maybe, but this probably won’t happen before 2010.

http://www.hardwaresecrets.com/blog/94
 
A este ritmo o processamento das placas gráficas torna-se superior ao próprio CPU.

Actualmente para calculos paralelos e vectoriais (funções de baixo nível com vários argumentos) já o são... Infelizmente para universos recursivos onde não existe grande capacidade de paralelismo ficam-se atrás.
 
t is always important to remind that programs compiled to use GPU’s from nVidia for processing won’t run on ATI’s. Of course final products can detect which video card you have installed on your system and load the CUDA-compiled code – which will provide the performance increase – if you have an nVidia video card.


>(>(:(
 
Boas...

Isso gostariam eles...

Um futuro á lá NVIDIA... Utopias e monopolísmos nunca serão opções...

O futuro a ser será para todos e não apenas para os que se apelidam de futurologistas...

Cumprimentos,

LPC
 
Boas...

Isso gostariam eles...

Um futuro á lá NVIDIA... Utopias e monopolísmos nunca serão opções...

O futuro a ser será para todos e não apenas para os que se apelidam de futurologistas...

Cumprimentos,

LPC

Sim, porque uma empresa que actualmente controla 80% dos processadores de PC's no mundo (e só não compete em preço para esmagar a outra concorrente porque sabem que um processo anti-trust instaurado pelo governo federal americano seria uma ameaça bem real) não é monopolista.
Nem pensar... :rolleyes:

E a Intel acredita tanto no futuro das CPU's tradicionais que até polarizou a oferta futura em torno de duas opções radicais: CPU's ultra-low-end (Atom) e CPU's com múltiplos "mini-cores" x86 ("Larrabee"), virados para computação gráfica e... paralela.
 
Última edição:
claiming that contrary to what Intel wants you to believe CPU’s aren’t playing an important role on gaming performance anymore

hmmm serio...? a diferença abismal que fez nos frames dos jogos quando apareceu o Core2Duo deve ter sido alguma grafica toda xpto do ano 2012 ja que pelos vistos nao foi o Cpu que deu aqueles frames todos perante os melhores AMDs :f
 
isso n é bem assim...a grafica é k começa a ser um bootleneck! n ker dizer o o proc n conte!

exprimenta jogar crysis no maximo com um celeron d e uma placa de topo! xD

e depois joga com um core 2 duo e a mesma placa! ;)

isto

Vais reparar que em muitos casos a diferença de peformance entre os processadores high-end e mainstream é quase nula o que prova que é preferível investir num processador mais barato e numa placa gráfica mais potente...

[]
 
isso n é bem assim...a grafica é k começa a ser um bootleneck! n ker dizer o o proc n conte!

exprimenta jogar crysis no maximo com um celeron d e uma placa de topo! xD

e depois joga com um core 2 duo e a mesma placa! ;)

Estás a fazer uma comparação errada.
O que a Nvidia diz (e é inegável) é que a rapidez de evolução e crescente autonomia das GPU's nos jogos em relação à evolução das CPU's é real.


Experimenta emparelhar uma CPU de topo com dois anos a uma placa de topo recente.
Agora junta uma CPU de topo recente a uma placa gráfica de topo que se vendesse há dois anos.
Qual das duas combinações te dá mais frames por segundo no Crysis, ou em qualquer outro jogo recente ?
Pois...
 
A Mudança de um AMD64 3200 para um Intel Quad 9450 com a mesma grafica 3870 foi da noite para o dia em 90% dos jogos no meu caso, por isso não digam que o CPU não tem importancia nas plataformas de hoje em dia.
 
akgis, estamos a falar (pelo menos eu estou) de um dual core, um x2 da Amd, ou da intel, tanto faz, em comparaçao com um quad core extreme por exemplo, a resoluçoes a cima dos 1600, a diferença de fps é nula em muitos casos, usando a mesma gráfica. Obviamente que passar de um Amd3600 para um um quad core a diferença é bastante.

Cumps
 
A Mudança de um AMD64 3200 para um Intel Quad 9450 com a mesma grafica 3870 foi da noite para o dia em 90% dos jogos no meu caso, por isso não digam que o CPU não tem importancia nas plataformas de hoje em dia.

Creio que o que está em causa é a diferença entre um CPU de meia tabela e um de topo. As diferenças em jogos não são tão grandes como se tratassem de GPU´s.
E convenhamos um 3200 não era um CPU de topo há dois anos.
 
O CPU actualmente continua a ser necessário, os jogos não são só gráficos, e penso que por enquanto as placas da nvidia apenas debitam gráficos ou estou errado?
Som, fisica, IA, etc, é tudo cpu...

Claro que a tendencia é no futuro começar a criar cores no GPU para a fisica, etc e ir libertando o CPU. Ou então o contrário :P colocar cores para fisica etc no CPU e libertar o GPU :P
 
O CPU actualmente continua a ser necessário, os jogos não são só gráficos, e penso que por enquanto as placas da nvidia apenas debitam gráficos ou estou errado?
Som, fisica, IA, etc, é tudo cpu...

Claro que a tendencia é no futuro começar a criar cores no GPU para a fisica, etc e ir libertando o CPU. Ou então o contrário :P colocar cores para fisica etc no CPU e libertar o GPU :P

depende.. o SOM podes ter placas de som, a fisica tens já boards para isso.. e no futuro cada vez mais as instruções vão ser integradas nas gráficas..

parece que vemos é um certo padrão.. a gráfica a começar a sustentar os sistemas..
 
depende.. o SOM podes ter placas de som, a fisica tens já boards para isso.. e no futuro cada vez mais as instruções vão ser integradas nas gráficas..

parece que vemos é um certo padrão.. a gráfica a começar a sustentar os sistemas..

Está extremamente longe esse padrão. A placa da Ageia para fisicas sejamos sinceros foi um falhanço. Ninguem comprou e jogos a suportarem são poucos.
A Havock por outro lado que corre no CPU é muito mais popular que a Ageia. Basta ver a lista de jogos que cada uma das 2 tem.

E em tudo isto tb tens que ver que os CPU´s não vão ficar parados, eles também evoluem. Por exemplo as instruções SSE5, multicores, a integração de GPU no CPU. Os CPU´s são muito mais complexos que as placas graficas.
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3073&p=1
 
Última edição:
pra mim o ideal seria meter o 2D nos cpus, e deixar o 3D (e outras coisas pesadas) para as gráficas, como antigamente :P Assim para poupar energia, desligava-se a gráfica quando estava em idle. Ou então sistemas como o PUMA da AMD.

Voltando ao tópico, a fisica como o DJ_PAPA já diss o mais provavel é ser integrada ou na grafica ou no cpu (em casa queremos um quad core pra k? bem que se pode meter 1 core só pa fisica).

Quanto ao som, 95% dos utilizadores usam som onboard que por sua vez quase sempre usa o cpu para o processamento do som. Pelo menos até há pouco tempo era assim...
 
O impacto do som onboard no uso do CPU é muito baixo hoje em dia. Dou mais valor a qualidade dos componentes e produzir som limpo ;)

Tive a ver specs dos ADI's mais recentes das boards ASUS e aquilo tem specs muito boas. O problema é a implementação que nem sempre é a melhor, embora o supremeFX II seja um exemplo de uma boa implementação do codec.
 
Eu acho é que o nome "Placa grafica" daqui a algum tempo, senão já actualmente, começa a ficar desviado do que realmente uma grafica pode fazer.

Ainda têm que alterar o nome para PPU (Parallel Processor Unit) ou algo assim....
 
Back
Topo