Nvidia G80: info e rumores

Status
Fechado a novas mensagens.
Eu axo piada é a estas informaçoes ultra-secretas. É melhor nao nomear informaçoes ultra secretas que vieram praqui ja dezenas de vezes que deram sempre em aguas de bacalhau.

btw nao é por isto ser uma tread de info e rumores que passa a dispensar um link como foi pedido com a informaçao contrariando a politica do forum. Senao corriamos o risco de abrir treads que so por dizer "rumor" no titulo podiamos dizer o que bem entendessemos. Nem que fosse o fim do mundo.

E se ta por ai tao espalhado pelos foruns com o link da noticia nao custa nada colocar entao os foruns que têm essas tais informaçoes.

Eu também acho piada à tua menção do The Inquirer como fonte credível.
Eles, que nunca dão fontes para nada do que escrevem, também têm por vezes alguns momentos de distracção onde revelam a verdadeira "fonte" das suas revelações:

YESTERDAY I SAID I was chasing more info on the Nvidia G80 chip. The more I dug, the more my head hurt, nothing concrete, so take this with a pretty big grain of salt.

http://theinquirer.net/default.aspx?article=34359

Tantas coisas diferentes se especulam que uma delas eventualmente terá de ser verdade, é a filosofia da tua "fonte" privilegiada de informação.
 
Soube agora por uma fonte +- segura que o G80 vai mesmo precisar de alimentação externa, o tamanho vai ser sensivelmente 2*R580 apesar de estar em 80nm.
Problemas de sobreaquecimento nos últimos tape-outs do GPU forçaram a nVidia a adiar o lançamento para Janeiro de 2007.
 
Soube agora por uma fonte +- segura que o G80 vai mesmo precisar de alimentação externa, o tamanho vai ser sensivelmente 2*R580 apesar de estar em 80nm.
Problemas de sobreaquecimento nos últimos tape-outs do GPU forçaram a nVidia a adiar o lançamento para Janeiro de 2007.

O tamanho ia ser 2 R580 em 80nm?

Jasus, vinha com que? 128 pipes? lol
 
Se calhar o "divórcio" entre a nVidia e a Microsoft nos tempos da Xbox não calharam bem..

Mas tambem a suposição de não conseguirem funcionar em conjunto não é minha, é da fonte do inquirer.

Mas o que é que o divorcio tem a ver com os 48 + 48?

Para isso a Nvidia punha 48 apenas não? Se não os consegue por a funcionar ao mm tempo, é igual ter 48 ou 48 + 48 lol
 
A minha fonte disse-me k a ventoinha ia rodar no sentido inverso aos ponteiros do relogio :P
Estamos com problemas.
A minha fonte disse-me exactamente o contrário...





@Ansatsu:
Nop, porque ter 48+48 pipes ocupa mais espaço do que apenas 48. Por isso é que a die vai ser gigante.
 
Última edição:
Estamos com problemas.
A minha fonte disse-me exactamente o contrário...





@Ansatsu:
Nop, porque ter 48+48 pipes ocupa mais espaço do que apenas 48. Por isso é que a die vai ser gigante.


Ah então a Nvidia vai meter 48 + 48 só para ter a die gigante? Porque em termos de performance é igual se tivesse 48 apenas.

Leste isso no The Inq? cada vez mais crediveis, sem duvida alguma :-D
 
No TheInq dizia que 48 iam ser para DX9 e os outros 48 para DX10. Não vejo onde está a lógica disso mas pronto :confused:

Isso menos logica tem, já que pelo que se sabe, as proximas placas DX10 vão emular DX9 e mm emulando vão ser mais rapidas que as actuais placas DX9.

Mas já tive a ler o artigo, e aquilo é pura especulação dele, e ele proprio o diz.

Tb disse que a G80 ia ter 384 bits de bus nas memorias lol Ou seja, 12 modulos de 21 ou 42 megas. ya right :D
 
Não seria melhor fazer (supostamente) como a ATi e meter lá tudo ao monte (unified shaders) e depois quem precisar que vá lá buscá-los?
 
Status
Fechado a novas mensagens.
Back
Topo