NVIDIA Next-Generation GPU - 13 de Abril

Na minha opinião o PCI Express é um passo revolucionário.. mas cujas vantagens vão ser imperceptiveis nos próximos tempos (2 ou 3 anos?)..


Acho que só quando o slot suportar transferencias na ordem dos 16Gb/s e as motherboards usarem memórias DDR2 na ordem dos 1Ghz é que as placas gráficas poderão usar a memória do sistema e abdicar da memória própria, aproveitando a poupança nos custos para embutir memória cache nos chips e tornar estes muito mais complexos e eficientes na sua arquitectura.
Isto e, está claro, poder usar o bus do PCI Express como um tipo de SLI para poder usar mais do que uma placa gráfica em paralelo, a acelerar o mesmo ambiente 3D :D
 
Originally posted by ToTTenTranz
Isto e, está claro, poder usar o bus do PCI Express como um tipo de SLI para poder usar mais do que uma placa gráfica em paralelo, a acelerar o mesmo ambiente 3D :D
esqueceste a tag [dream mode on/off] :D Mas que era giro era :D:D
 
Originally posted by NeoToPower
esqueceste a tag [dream mode on/off] :D Mas que era giro era :D:D

lol
Não sei se será bem dream mode.. Já há imensa gente (developers, sites de hardware etc.) a comentar isso desde que o PCI Express veio à baila.
Acho que o último que vi a falar disso até foi o Tim Sweeney do Unreal Engine.

E tem a sua lógica: em vez de comprar um GPU que, apesar de muito rápido, é bastante caro (e complexo) de fazer, porque não usar dois que, apesar de serem mais lentos (e mais baratos de fazer), são mais baratos e se forem usados ao mesmo tempo até têm melhor ou semelhante performance?

Por exemplo duas R9600XT custam menos de metade que uma R9800XT (2*150€=300€<500€).
É claro que 2 placas não significariam o dobro da performance, mas digamos que se tivessemos um aumento de 65% nos fps, já valia mais a pena comprar a 2ª 9600.

Esta era a ideia da XGI ao lançar a gama Duo (que até é uma boa ideia).. mas isto mostrou-se um autentico falhanço por causa dos drivers fracos e da baixa velocidade de comunicação entre os dois GPUs (equivalente ao AGP 4x..). Com versões evoluidas do PCI Express o problema da comunicação entre os dois GPUs deixa de existir e em relação aos drivers... metam equipas de 200 pessoas (como a nvidia e a ATi) a trabalhar nisso que isso fica resolvido lol.


Quem sabe se no futuro alem de vermos packs de memórias optimizadas para dual channel tambem veremos packs de duas placas gráficas optimizadas para dual slot.. :D
 
Originally posted by ToTTenTranz
lol
Não sei se será bem dream mode.. Já há imensa gente (developers, sites de hardware etc.) a comentar isso desde que o PCI Express veio à baila.

O problema é, que board vai ter duas pci Ex 16X?
Não estou a ver uma grafica numa 16X e outra numa normal.

Duas 16X até deve ser possivel, mas não havendo mercado sera que algum fabricante vai apostar nisso?

E sim, eu tb gostava que o SLI voltasse.

Edit: O que é que o AGP ou Pci Ex tem a haver com a comunicação entre os dois gpu's da volari? Aquilo não é um bus interno na placa?
 
Penso que já foram soluções mais do que tentadas, falharam todas. Só o grau de complexidade para meter 2 VPU's a trabalhar em conjunto é enorme.

Eu penso que VPU's separados é uma perda de tempo, agora VPU's dual ou quad core, isso sim, tem mais vantagens.
 
Originally posted by Nemesis11
O problema é, que board vai ter duas pci Ex 16X?
Não estou a ver uma grafica numa 16X e outra numa normal.

Duas 16X até deve ser possivel, mas não havendo mercado sera que algum fabricante vai apostar nisso?

E sim, eu tb gostava que o SLI voltasse.

Edit: O que é que o AGP ou Pci Ex tem a haver com a comunicação entre os dois gpu's da volari? Aquilo não é um bus interno na placa?


Já se anda a falar há algum tempo de boards com mais de um PCI Ex 16x justamente para albergar mais que uma placa gráfica.


O bus interno da Volari, tambem conhecido como BitFluent, não é mais que um bus totalmente equivalente ao AGP2x (enganei-me, tinha dito 4x e afinal é 2x.. ainda pior..), ou seja, 32bits a 133Mhz.

Obviously, dual-processing is based on the old principle of master and save processors. They have a special internal bus between them marked as X-Link (also known as BitFluent). This is actually the internal AGP2x, 32 bits wide and working at 133 MHz. The processors work similarly to those in the ATI RAGE MAXX - everyone renders its own frame, but unlike to ATI's product, the chips do not wait for each other to sync when rendering is completed. The disadvantage is a low throughput of the internal bus which transfers data from applications and the slave processor which also constantly reports its results to the master one. Besides, in such configuration most data duplicate in both memory buffers, and each chips fulfills caching separately and less efficiently compared to one chip with the 256bit memory bus.
http://www.digit-life.com/articles2/volari-duo/index.html
 
Originally posted by ptzs
Penso que já foram soluções mais do que tentadas, falharam todas. Só o grau de complexidade para meter 2 VPU's a trabalhar em conjunto é enorme.

Eu penso que VPU's separados é uma perda de tempo, agora VPU's dual ou quad core, isso sim, tem mais vantagens.




Discordo. O SLI da 3dfx foi um sucesso como eficiencia de arquitectura. Na voodoo2 os resultados obtidos quando se ligavam 2 voodoo2 em simultâneo eram excelentes, e a Voodoo5 só foi um fracasso porque chegou demasiado tarde e não tinha T&L.
 
Originally posted by ToTTenTranz
Já se anda a falar há algum tempo de boards com mais de um PCI Ex 16x justamente para albergar mais que uma placa gráfica.

Haverá mercado para isso?
Não estou a ver a Ati e a nVidia a irem por aí. Pelo menos por enquanto.
Mas se aparecer boards com 2 pci-ex 16X, então são bem vindas, pq ao contrario do agp, pode-se ligar lá outros componentes,

Originally posted by ToTTenTranz
O bus interno da Volari, tambem conhecido como BitFluent, não é mais que um bus totalmente equivalente ao AGP2x (enganei-me, tinha dito 4x e afinal é 2x.. ainda pior..), ou seja, 32bits a 133Mhz.


http://www.digit-life.com/articles2/volari-duo/index.html [/B]

Não sabia. Nunca pensei que parte dos problemas viessem desse bus.
Volari no seu melhor.
Espero que a placa já esteja mais barata do que estava.

Edit: Sim, a Voodoo2 foi um tremendo sucesso, mas a Voodoo 5 foi um fracasso, Rage Maxx idem, Volari também...
 
Originally posted by ToTTenTranz
Discordo. O SLI da 3dfx foi um sucesso como eficiencia de arquitectura. Na voodoo2 os resultados obtidos quando se ligavam 2 voodoo2 em simultâneo eram excelentes, e a Voodoo5 só foi um fracasso porque chegou demasiado tarde e não tinha T&L.

Eram excelentes no seu tempo, talvez possas recriar o evento quando chegar o PCI-EX, mas até lá um gajo espera sentado.
 
[especulating mode]

Penso que ter dois slots PCI-Express 16x na mesma board traria complicações a nivel dos "traces" e provavelmente aumentaria a necessidade de mais layers para fazer a board. As implicações no preço são obvias. :(

Depois disso seria preciso haver forma de estas trabalharem em conjunto a nivel de drivers, dos chipsets as suportarem e não esquecer a parte dos consumos energéticos. Fontes potentes e boards a poderem mandar a energia necessária para os slots.

[/especulating mode]

É tudo fazível concerteza, mas via isto mais possivel de acontecer a nivel das Workstations, com menos preocupações de preço do que nos Desktops, mesmo High-End.

Mas pronto, dá para um gajo ir sonhando...
 
nVidia na GDC

“We’re excited to showcase a new class of software tools designed to empower developers to take advantage of the latest advancements in graphics hardware, such as Shader Model 3.0,” said Mark Daly, vice president of content development at NVIDIA. “NVIDIA’s tight integration with the game development community ensures that we're able to consistently deliver the caliber of technologies that address the needs of an evolving game industry."

Shader Model 3.0 enables developers to achieve a class of film-quality effects never before possible in real-time game rendering. NVIDIA's native support for this technology advancement in its next-generation hardware platform presents an exciting opportunity for developers, as it allows for the adoption of more flexible and natural programming methods. The results will yield a higher caliber of visually stunning games with distinct improvements in materials, lighting, and scene complexity that mirror real-world situations.

Throughout the week NVIDIA’s technical experts will lead a series of technical sessions focusing on tips and tricks for real-time graphics that can be adopted to create a new generation of visually stunning gaming experiences. A sample of NVIDIA-led sessions include the “Next Gen Special Effects Showcase,” “Cinematic Effects II: The Revenge,” and “Tools to Squeeze Maximum Performance from your GPU.” The Company will also host a jam-packed line-up of booth activities, which includes daily presentations from the industry’s top developers and digital content creation providers, including Epic Games and Alias, who will demonstrate their latest projects and achievements.

http://www.nvidia.com/object/IO_12112.html

Insistem tanto nos shaders 3.0 :D.
Cinematic Effects II: The Revenge.......amanhã na GDC.
 
Back
Topo