Gráfica Geforce GTX 295 "V2" (single PCB)

Para quando a release date em PT das GTX295 single pcb? Alguem sabe?

Gostava de saber a data de lançamento.. Tou á espera de uma 295 normal á 1 mes para trocar a minha 9800gx2 que deu o berro. As 295 normais tao esgotadas e penso que seja devido a estas estarem prestes a sair.

Pelo que li a preço vai ser o mesmo. As GTX295 normais sao muito caras de fabricar e nvidia tinha pouca margem de lucro. Entao estas novas GTX295 veem ao mesmo preço, mas com mais lucro para a nvidia
 
Hydes, não dá para hexa-SLI, falta o 2º finger SLI ;) E se os ganhos com quad-SLI já são vergonhosos, com 6 então...

Para min multi GPU só vale ou estas placas com 2 ou SLI e crossfire "duplo" apenas.

Nada impede de espetar 4 destas se a board tiver 4 slots separados 2 a 2 (1 - 3 - 5 - 7) e uma caixa com 8 slots como uma certa lian-li e thermaltake, mas apenas para CUDA processing.

E o que é aquele 3º chip perto do slot Pci-Ex.

De resto, vem um pouco tarde, mas se descer o preço, pode valer a pena.

o NF200, para dividir as lanes para cada GPU.

Tal como o PLX das 4870x2
 
Última edição:
Single-PCB GeForce GTX 295 Pictured

Single-PCB GeForce GTX 295 Pictured

Zol.com.cn has managed to take some pictures of the upcoming single-PCB GeForce GTX 295. Expected to arrive within a month, the single-PCB GTX 295 features the same specs as the dual-PCB model - 2x448bit memory interface, 480 Processing Cores and 1792MB of GDDR3 memory, and GPU/shader/memory clocks of 576/1242/1998 MHz respectively.

geforce_gtx_295_single-pcb_03.jpg


geforce_gtx_295_single-pcb_04.jpg


geforce_gtx_295_single-pcb_05.jpg


geforce_gtx_295_single-pcb_06.jpg


geforce_gtx_295_single-pcb_07.jpg


geforce_gtx_295_single-pcb_10.jpg
(in http://www.techpowerup.com/95251/Single-PCB_GeForce_GTX_295_Pictured.html)
 
Eu cá para mim vou mas é optar por um I7+Board+Ram que com a minha actual 285 GTX OC consigo ter um boost em tudo o que for jogo pagando quase o mesmo que esta V2 ia custar em PT :P mas pronto estou curiosa para ver se esta V2 será igual ao v2 da segunda gerra mundial e levanta voo?
 
A mim o que me faz mais confusão é o posicionamento da ventoinha (e ser apenas uma). Não sei como é que aquela ventoinha central vai conseguir arrefecer eficazmente os dois GPU.
 
A mim o que me faz mais confusão é o posicionamento da ventoinha (e ser apenas uma). Não sei como é que aquela ventoinha central vai conseguir arrefecer eficazmente os dois GPU.
De certeza que os engenheiros da nvidia testaram isto tudo! não me parece que vá aparecer 1 milhão de pessoas ás portas de uma loja para trocarem a gráfica por causa de ela andar a crashar após 15 minutos a jogarem crysis.

Mas pelas imagens tem toda a lógica: A Fan a rodar "espalha" o ar para a esquerda e a dirita provocando uma corrente de ar sempre fresco e como a gráfica é "fechada" por uma tampa o ar circula dentro desssa tal tampa e sai pelas ranhuras no lado esquerdo.
Funciona como uma caixa de PC fechada com uma fan na frente na parte de baixo a "meter" ar e outra fan na parte superior traseira da caixa a tirar o ar. Existe um fluxo de ar frente-trás.

E não te esqueças do barulho que seria ter duas fan a trabalharem! e num espaço muito apertado ter duas fan muito juntas uma da outra não seria tão eficiente como o actual sistema....

EDIT: observa também bem o desenho das pás da fan: peloas formas curvadas percebe-se que foram feitas para "atirar" o ar nos dois sentidos: esquerda e direita. e a fan está virada para baixo de forma a "chupar" ar fresco.....

EDIT 2: Os dois coolers são quase de Aluminio e apenas o cobre necessita de uma fan em cima a "atirar" ar para cima.
 
Última edição:
A mim o que me faz mais confusão é o posicionamento da ventoinha (e ser apenas uma). Não sei como é que aquela ventoinha central vai conseguir arrefecer eficazmente os dois GPU.

Resumindo, a fan faz correr ar pelos dois dissipadores, saindo o ar quente por traz e pela frente da gráfica ( por isso é que é aberta á frente)
 
Já repararam no buracos para apertar o cooler? Aquilo com um cooler 3rd party não deve dar e os pots de Vince pelo menos no GPU perto dos conectores de energia nao dá
 
mas hoje todas têm blastarr, e não se aplica a frase dele "por isso é que tem as aberturas"

se a tua não tinha era mau para ti digo eu. lol

Não, não era.
Até era bastante silenciosa e fresquinha, e tinha um belo "boost" para 800MHz nas memórias de fábrica da placa (tendo em conta que eram DDR... 1, até nem estava nada mal).
Aliás, ainda a tenho para aí numa gaveta, para mim o interface AGP morreu circa finais de 2004.
Também é verdade que poucas placas gráficas tive para esse slot (uma GF2 MX, uma GF2 Pro, uma GF4 Ti 4200 e essa GFX 5900 XT).
 
Última edição:
Não, não era.
Até era bastante silenciosa e fresquinha, e tinha um belo "boost" para 800MHz nas memórias de fábrica da placa (tendo em conta que eram DDR... 1, até nem estava nada mal).
Aliás, ainda a tenho para aí numa gaveta, para mim o interface AGP morreu circa finais de 2004.
Também é verdade que poucas placas gráficas tive para esse slot (uma GF2 MX, uma GF2 Pro, uma GF4 Ti 4200 e essa GFX 5900 XT).

eu tive a Ti 4200 e a 5900 por muito pouco tempo, andava nas ati nessa altura
grande placa a Ti 4200 numa altura em que CS ainda rulava qb (era só puxar pelo
cpu e ver o framerate subir como um avião a descolar) :P

e essas duas era single slot as que eu tive pelo menos a 4200 era Asus cooler todo em copper
 
Voltando ao tópico, acho que a Nvidia dar-se ao trabalho de criar um segundo design para uma placa de topo que já está a 6 meses da reforma não foi tanto uma decisão meramente económica, mas antes um "teste" para outras coisas futuras...
 
Voltando ao tópico, acho que a Nvidia dar-se ao trabalho de criar um segundo design para uma placa de topo que já está a 6 meses da reforma não foi tanto uma decisão meramente económica, mas antes um "teste" para outras coisas futuras...

testes ficam no lab, esta é uma placa com claros objectivos economico-financeiros,

há mercado para ela (embora tenham conseguido reduzir custos na sua produção, e tenham

mantido o preço que eu pessoalmente acho mal) de certeza que até sairem os next-gen

esperam tirar bons dividendos delas
 
Back
Topo