NV50/G70 Rumors

blastarr

Power Member
http://www.vr-zone.com/?i=2010&s=1

Quote:

"
Next Gen GPUs Info : R520 & NV50/G70

ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June.
NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy.
None the least, we heard that NV50/G70 is a dual-core monster with 32 pipelines and is based on TSMC 90nm process technology.
ATi R520 is also 90nm based and contains 32 pipelines.
The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan.
We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology "

Tb se diz q a NV50/G70 é apenas um refresh baseado na NV4x, mas caso fosse dual-core, não poderiam ser dois cores 6800 numa só GPU, ligados por algum algorítmo SLI interno ?
Questions, questions...
 
Poderá ser alguma ideia baseada na técnologia SLI, mas integrado no core... fazia todo o sentido.

Estou extremamente curioso para ver o que o futuro nos reserva. :)
 
Mas a gigabyte já lançou uma placa com dois chips nv40 no mesmo pcb ligados coma tecnologia SLI.
S fosse assim não era novidade nenhuma.
 
We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology "

NAO!!! Tudo menos isto!!!!

De certeza que é falso. Algum dia as high-end vao levar com a mrd* do turbo cache.
Isso era matar a grafica.

Mas parece que os 32 piplines vao vir em força na proxima geraçao! Será que a Nvidia tb optou pela unificaçao dos pixelshaders e dos vertexshaders, como a R520?
 
Pelo q ouvi dizer a r520 já suporta SM3.
Não é dificil. O Shader path da x800 é muito parecido com o SM3, só lhe falta algumas capacidades.
 
Só espero é que se a noticia for mesmo verdade a a proxima geração da nvidia for mm dual core, continuemos a ter a opção para fazer sli (LOOL um pc com 4 gpu...) pois com as dual core 6800 ultra que ja vi (a asus por exemplo) elas não podem ser ligadas a outra gráfica pois n suportam sli (só o sli na propria board da gráfica)
E o mais importante!!!
Que nao façam um aspirador (o k duvido)... A pesar de serem dois cores, pff que metam uma ventoinha de 120mm com toneladas de heatpipes, mas n nos massacrem com outra 5800 ultra :joker:
Abraço.. Aguardo novidades...
 
Pessoalmente, acho que é a Turbocache que vai revolucionar o mercado da memória RAM. Pq ?

Pensemos bem, uma placa gráfica de topo tem sempre memória onboard em quantidades generosas, servindo estas para alimentar o framebuffer e guardar texturas, geometria, etc, etc.
Se repararmos com mais atenção, grande parte dessa memória n é usada pelas texturas, mas sim para calcular coisas como TnL, pixel/vertex shaders, geometria, que precisam de acesso rápido.

Agora, se se arranjar maneira de aproveitar o endereçamento alargado de RAM do sistema proporcinado pelos cpu's de 64 bit, convertendo uma parte em armazenamento das texturas mais usadas (tipo uma memória cache, por assim dizer), teremos jogos e aplicações com acesso muito mais rápido, pois texturas de altíssima resolução n precisam de estar num disco rígido de acesso mais lento. Toda a gente diz mal do Turbocache e do Hypermemory, mas só têm sido usadas em placas com pouca memória e pouco poder da GPU.

Nunca vimos o sistema a funcionar com placas de topo, onde o preço da memória GDDR tem um peso elevadíssimo no custo final.
Se se fizer o off-load de texturas para a ram do sistema, a RAM da gráfica pode ser melhor aproveitada para antialiasing, por exemplo.
Tenho algum sentido nas minhas suposições ? Acredito q sim.
 
Winjer disse:
Mas a gigabyte já lançou uma placa com dois chips nv40 no mesmo pcb ligados coma tecnologia SLI.
S fosse assim não era novidade nenhuma.

Dois chips sim, mas isso é o mesmo q comparar uma mboard com dois opteron, com um só opteron com dois cores, cada uma das soluções tem vantagens e desvantagens inerentes.
 
blastarr disse:
Pessoalmente, acho que é a Turbocache que vai revolucionar o mercado da memória RAM. Pq ?

Pensemos bem, uma placa gráfica de topo tem sempre memória onboard em quantidades generosas, servindo estas para alimentar o framebuffer e guardar texturas, geometria, etc, etc.
Se repararmos com mais atenção, grande parte dessa memória n é usada pelas texturas, mas sim para calcular coisas como TnL, pixel/vertex shaders, geometria, que precisam de acesso rápido.

Agora, se se arranjar maneira de aproveitar o endereçamento alargado de RAM do sistema proporcinado pelos cpu's de 64 bit, convertendo uma parte em armazenamento das texturas mais usadas (tipo uma memória cache, por assim dizer), teremos jogos e aplicações com acesso muito mais rápido, pois texturas de altíssima resolução n precisam de estar num disco rígido de acesso mais lento. Toda a gente diz mal do Turbocache e do Hypermemory, mas só têm sido usadas em placas com pouca memória e pouco poder da GPU.

Nunca vimos o sistema a funcionar com placas de topo, onde o preço da memória GDDR tem um peso elevadíssimo no custo final.
Se se fizer o off-load de texturas para a ram do sistema, a RAM da gráfica pode ser melhor aproveitada para antialiasing, por exemplo.
Tenho algum sentido nas minhas suposições ? Acredito q sim.
Concordo plenamente Penso que o unico probloema do turbo cache será mm a redução na memória da grafica, ficando esta mais dependente da memória ram... Que sempre é bastante mais lenta... Se as gráficas topo continuarem a veir com os habituais 256 ou mm 512, Mesmo que venham com o turbo cache em principio penso que nao teremos nada a perder no desempenho.. Agora se começarem a vir graficas com 128mb para a linha topo.. Penso que ao ficarem muitas texturas na memória do sistema teremos uma perda de FPS. Mas sinceramente... Eu espero para ver... nunca se sabe... Principalmente porque estão para entrar para o mercado das Rams memórias bastante rápidas... Com a introdução das mesmas penso que o turbo cache se tornará uma clara vantagem
Abraço!
 
Entre tudo o que eu li, destaco isto:

None the least, we heard that NV50/G70 is a dual-core monster with 32 pipelines and is based on TSMC 90nm process technology.

Parece-me um GPU fraquito :D Agora é 2x 16 pipes ou 2x 32 pipes (não me parece, era bom era :P )

Agora estou imaginando:

2x NV50 por placa e ambas ligadas em SLI

Pois é! 8x cores! O milagre da multiplicação dos pães!!

Isto está a escalar a uma velocidade INCRIVEL!! :wow:

Isso é tudo bonito, mas se vier um vulcão e preços exorbitantes, para min = "LIXO"... (claro que me refiro a 1 placa com 1 NV50 apenas e não a situação que descrevi acima)
 
blastarr disse:
Eu já considero exorbitantes os preços das placas actuais.
Exatamente :P Por isso que faço a festa com uma 6600 GT de 190 € :P

Mas tipo uma 6800 ultra são 500-600 € e as novas tão a apontar para os 1000 € :(
 
Alguém faz ideia de quando estas gráficas (R520 e NV50/G70) estarão disponiveis? Ou pelo menos quando são as datas de lançamento?
 
blastarr disse:
Tb se diz q a NV50/G70 é apenas um refresh baseado na NV4x, mas caso fosse dual-core, não poderiam ser dois cores 6800 numa só GPU, ligados por algum algorítmo SLI interno ?
Questions, questions...


SLI é apenas um nome para o marketing. Tudo se resume ao processamento paralelo. Obviamente que este também irá chegar na forma dual-core às gráficas. É muito mais simples baixar a 65nm e espetar dois cores num GPU. É bem mais fácil do que desenvolver um novo GPU com mais pipelines, +, +. A diferença entre os dual-core CPU e dual-core GPU é que este última é mais fácil de meter a funcionar pq cada core tem o seu objectivo - a sua tarefa bem definida. Um trata da primeira metade da imagem enquanto o outro da segunda ou outra divisão qualquer. É claro que é necessário incluir toda a lógica para ligar os cores para fazer o *SLI*.
Vantagens e desvantagens. A memória total (2 cores ou 2 gráficas) passa a ser mais local. Dois cores tornam-se mais esfomeados e há que aumentar a largura de banda para as memórias (ou então ter paths/memórias distintos). Isto implica board's um pouco mais complexas e caras. Bom, mas isto pro's gamers é irrelevante não é?
 
Tudo no processamento gráfico é paralelo, é uma das vantagens das GPU's.
Ser dual core 16 de pipelines cada ou ter 32 pipelines numa só é exactamente a mesma coisa em termos prácticos, aliás, a ATI tb faz isso há anos, tal como fazia a Quantum3D com os chips 3dfx e aínda faz agora com os da Nvidia.
Sim, é necessário replicar a informação do framebuffer, mas é um mal necessário e placas de topo já possuem hoje em dia buses de memória de 256 bit e GDDR3 (futuramente serão XDR, concerteza...), com muito mais largura de banda total do q um cpu.
Se é só marketing e n dessem benefícios nenhuns, pq é q os militares adoptaram essas soluções em simuladores de vôo, por exemplo ?

A única diferença é que, com dual-core, a produção de um chip mais potente é muito menos complexa, sendo q, caso um dos cores ou parte de um dos seus quads esteja danificado, é possível utilizar o restante numa placa de gama inferior.
Ng viu aínda softmods para activar registers num cpu general purpose (a n ser q a cache escondida dos Thorton tenha algum deles escondido... :P).

Os ciclos de desenvolvimento de GPU's de arquitecturas verdadeiramente novas esbarrou no mesmo obstáculo de cpu's como o P4, Athlon64 e *****, o consumo de energia e dissipação sob a forma de calor.
Daí a tendência para o processamento paralelo distribuido, que nunca beneficiará os gráficos como o faz noutras coisas, pois já eram paralelismos antes, dentro de um só chip.
É uma pura questão de economia de escala e de racionalidade.
 
Xpirit disse:
A memória total (2 cores ou 2 gráficas) passa a ser mais local. Dois cores tornam-se mais esfomeados e há que aumentar a largura de banda para as memórias (ou então ter paths/memórias distintos). Isto implica board's um pouco mais complexas e caras. Bom, mas isto pro's gamers é irrelevante não é?

Como o Cell, não ? :007:
 
Convém ler o que os outros escrevem!

Eu disse "Tudo se resume ao processamento paralelo. Obviamente que este também irá chegar na forma dual-core às gráficas"

O " na forma dual-core" não está lá só para enfeitar. Referia-me ao processamento paralelo na forma dual-core. O paralelo que tu falas existe em quase tudo e em qualquer CPU. Se assim não fosse ainda andariamos a passo de caracol.

É falso dizer que 2 x 16 pipelines (dual-core) = 32 pipelines quer em planos teóricos ou práticos mas não me vou alongar. Quando digo que o SLI é apenas um nome para o marketing estava a falar na palavra em sí e não ao conceito ou a tecnologia ser irrelevante. Esse é conhecido por processamento paralelo (multi-cpu/core). Mais uma vez convém ler bem e sobretudo ler a thread toda para se perceber em que contexto está a discussão.

Finalmente dizes,
"Daí a tendência para o processamento paralelo distribuido, que nunca beneficiará os gráficos como o faz noutras coisas, pois já eram paralelismos antes, dentro de um só chip"
Ora é exactamente o contrário. O processamento paralelo distribuido (ah, aqui já distingues os vários níveis de paralelismo logo não se percebe então a lenga-lenga inicial do teu post) beneficia em muito o processamento gráfico simplesmente porque é essencialmente (intrinsecamente) paralelo. Por isso é que o processamento paralelo tem um tradição de vários anos na renderizaçao gráfica professional para a industria cinematográfica. Um dos programas paralelos mais falados pela comunidade menos especializada em computação paralela é o Pov-ray paralelo. Chega ao cúmulo de haver pessoas que se julgam especialistas em computação paralela só porque usam (ou põem a correr) o Pov-ray na sua versão paralela.
 
Última edição:
Back
Topo