NVIDIA SLI Preview - MSI's nForce4 SLI Motherboard

Zar0n

Power Member
NVIDIA SLI Preview - MSI's nForce4 SLI Motherboard

motherboard_sm.jpg


Final Words
The performance advantages due to SLI are nothing to be disappointed with, using two GPUs NVIDIA is able to deliver next-generation graphics performance with today's cards. Keep in mind that our numbers were taken at relatively high resolutions with 4X AA enabled; without AA enabled and at lower resolutions the performance gains from SLI become much lower as you are far more CPU bound.

The GeForce 6600GT is the prime candidate for the SLI poster child as it is the most affordable card with SLI support from NVIDIA. Unfortunately our tests here today are more geared towards the higher end cards as the 6600GT, even in SLI mode, is still generally outperformed by a single 6800GT. At lower resolutions or with AA disabled, the performance of two 6600GTs would definitely be more similar to that of a single 6800GT. But the important thing to keep in mind here isn't what you can do with two cheaper cards and SLI, but rather the upgrade potential SLI offers. Buying a $200 6600GT today and upgrading to another one several months down the road, at a potentially much lower price, is a great way of getting the performance you want today while at the same time having a cheap upgrade path for when tomorrow's games come out.

The GeForce 6800GT in SLI mode truly skyrocketed to a new level of performance, but a very costly one. With a pair of 6800GTs selling for about the price of most users' upgrade budgets, we once again see more potential in the upgrade value of SLI rather than the initial purchase value. However, if you can afford it, a pair of 6800GTs in SLI mode will definitely offer some serious performance in all of today's games. Interestingly enough, spending close to $1000 on graphics cards still won't let you play at 1600 x 1200 with 4X AA at over 100 fps in Doom 3; but if you're willing to settle, over 60 fps is a piece of cake.

Although motherboard and graphics support for SLI is definitely close to being ready, we are not so certain about the maturity of the drivers. NVIDIA's own tests were conducted under three applications: Doom 3, Halo and 3dmark 05. Although our own tests added two more benchmarks, they didn't run without their fair share of display issues. The complexity of the SLI driver and ensuring game compatibility is undoubtedly a major factor in the release date of SLI. We are also hearing that chipset availability is a bit on the limited side for nForce4 SLI, with most manufacturers planning on shipping boards in early 2005. ASUS and MSI both seem to be on track to a release by the end of 2004, which will definitely give them the lead if NVIDIA can get finalized drivers out in time.

All is not quiet on the ATI front though, rumor has it that they are also planning on some SLI-like solutions on both the chipset and GPU side. Given the flexibility of PCI Express to support multiple high-bandwidth slots for graphics, we would think that there's no reason (other than driver support) to not want to have SLI support within a product family. The introduction of SLI could lengthen the GPU product cycles as performance can be guaranteed for much longer, but it could also increase the expectations of upcoming GPUs like NV50 and R500. We would not be too surprised if supply issues of many of the popular SLI cards developed right before the launch of a new GPU to prevent a lackluster introduction.

In the end we're rather pleased with SLI as it promises to increase the life span of your graphics card investment, something that we've been dying to have for quite some time. We will be sure to do a full review on the final shipping SLI motherboards and GPUs when they are available, but until then we hope you've enjoyed our preview.

Very special thanks goes out to Vincent and Iris of MSI for putting themselves and their engineers through hell in order to make this review possible. You would not believe how difficult this little benchmarking opportunity was to put together :)

Não é para mim, mas kem pode k va dar uma olhadela ;)
 
Ok dps de ver bem os numeros com mais calma concluo k ha 2 opções.

Ou és 1 gajo k cheio de €€€ e compras um Bord SLI + 2 6800GT/ultra de empreitada ou então...

Pura e simplesmente eskece o SLI.

Como já dito dito uma 6800GT é mais barata e mais rápida k duas 6600 GT em SLI então uma 6800 ultra nem se fala.
E claro no caso do SLI há que acrescentar uma bord de +250€ uma PSU de +500w e 1 sistema de arrefecimento a dobrar. :wow:
I quanto a comprar uma agora e outra passado uns meses?
Eskece, passado uns meses já saiu uma nova formada e ficas e com dois monos na mão k n valem quase nada ao fim de 1 ano. :lol:

O SLI como estudo tecnológico é excelente, agora a utilidade pratica e económica não convence.

E claro temos tb a ATI. ( é k tb podes gastar o €€€ em OC a uma X800XT :004: )

Quanto o ***** nforce 4?
Tou a espera da minha…………….... Nforce 4............... ultra ;)
 
Nvidia's nForce4 SLI reference design calls for a slot to be placed on the motherboard that will handle how many PCI Express lanes go to the second x16 slot. Remember that despite the fact that there are two x16 slots on the motherboard, there are still only 16 total lanes allocated to them at most - meaning that each slot is electrically still only a x8, but with a physical x16 connector. While having a x8 bus connection means that the slots have less bandwidth than a full x16 implementation, the real world performance impact is absolutely nothing. In fact, gaming performance doesn't really change down to even a x4 configuration; the performance impact of a x1 configuration itself is even negligible.
Bastante interessante que não exista uma diferença na performance devido ao bottleneck da bandwidth do PCI Express com a diferença x16 para x8.
Alias, até pelo que dizem até ao x4 também não se nota e com x1 pelos vistos também é minima a diferença.
Eu gostava é de ver comparativos em relação a estas diferenças de performance pois acho muito estranho que não limite nada.
Quer dizer, deve limitar tanto como as diferenças AGP 4x VS. AGP 8x, também não são quase nada notórias.

slibridge_sm.jpg
slibridge2_sm.jpg


A peça de Hardware mais pretendida do momento...:D
twocardsinstalled_sm.jpg


Como elas ficam bonitinhas assim tão juntas...:D

5233.png


5236.png


5239.png


A altas resoluções com AA e AF ligados as diferenças entre SLI ou non-Sli são brutalmente notórias.
De chamar a atenção para esta última imagem onde duas 6800GT põe o FarCry a mais de 100Fps com 1600*1200.
Realmente os resultados de SLI são de por qualquer um a pensar quando é que irá adquirir duas 6800GT... :wow:

Agora uma questão, em SLI o possivel overclock máximo das placas não terá que ser forçosamente menor ?
Ou o SLI não afectará o panorama ?
Outra questão que tenho é em relação ao comportamento dos slots PCI Express.
Ao overclockar as boards os clocks dos slots PCI Express também vão subir à medida que aumento o Fsb , certo ?
Ou já existe um lock funcional como existe para AGP/PCI ?
 
A nível de overclock, as placas overclockam como uma só, ou seja, se uma das placas for má overclocker, no geral ficas limitado pelo overclock dela.


Quanto à questão económica do SLI, só compra quem quer e pode. Já no caso das 3Dfx também só quem queria e podia é que comprava. 2 Voodoo2 de 12MB eram tudo menos baratas para a altura.

A nível de resultados, cada vez que saiem novos resultados, mais "babado" eu fico, e ansioso por meter as mãos num sistema SLI! :)
 
Até eu já começo a ficar :wow: 8o :wow:
O Natal vem aí :D

De realçar este factor:

"Although our own tests added two more benchmarks, they didn't run without their fair share of display issues. The complexity of the SLI driver and ensuring game compatibility is undoubtedly a major factor in the release date of SLI."
 
Raptor disse:
A nível de overclock, as placas overclockam como uma só, ou seja, se uma das placas for má overclocker, no geral ficas limitado pelo overclock dela.


Quanto à questão económica do SLI, só compra quem quer e pode. Já no caso das 3Dfx também só quem queria e podia é que comprava. 2 Voodoo2 de 12MB eram tudo menos baratas para a altura.

A nível de resultados, cada vez que saiem novos resultados, mais "babado" eu fico, e ansioso por meter as mãos num sistema SLI! :)
Pois, essa primeira questão é exactamente como eu pensava que fosse.
Em relação à pergunta que fiz acerca dos clock's PCI Express como é ?
Existe lock, não existe lock ? :)

SLI de 6800GT é mesmo sweeeeeeeeeeeeeeeeeeeeeet.... :p :p :p

Edit : Com SLI de 6800GT nem com um Fx-55 se tira total partido do potencial das 2 gráficas.
Cá para mim, já vinha era uma board dual socket 939 com SLI... :D :D :D
 
Última edição:
Com resultados em que quase duplica a performance (desde que o sistema não limite a performance), como achas que não há razões para se "idolatrar" esta técnologia.


É basicamente uma espécie de Dual-Core nas placas gráficas.


Supões que estamos no desenvolvimento de Dual-Core nas placas gráficas... por agora começamos a desenvolver sistemas Dual-CPU, para mais tarde termos um "dual-core" real nas gráficas.
 
Tenho de admitir q akelas 6800GT ali juntinhas fikam mto bonitas :D
E a performance no Doom3... :eek: :eek: :eek:

N era mais rentavel seguirem o caminho da 3dfx, se n me engano a voodoo2 eram 2 chips da voodoo1 num pcb maior...(n confundir com dual core), provavelmente era uma solução mais barata e igualmente poderosa...Se calhar fikavam era com alguns problemas de layout :P
 
Eu não percebo pq é que o Sli causa tanta comichão.

Quando a Tyan, iWill, Supermicro, etc lançam uma board dual/quad, etc, não vejo ninguem se queixar e:
- é preciso uma caixa maior
- Melhor fonte
- Custo da board
- custo dos dois cpu
- Melhor cooling
- Mais barulho
- Só melhora a performance se o software aproveitar.

Se a nVidia lançasse isto só para o mercado workstation (quadro), ninguem se queixava, mas como aqueles malandros tiveram o atrevimento de lançar para o mercado consumidor............Oh meu Deus!!! Como é que eles tiveram coragem?

Os numeros estão aí, apesar de ser uma board de pre-produção. Se não querem/podem, apreciem quem pode/quer.
Sim, tem limitações. Sim é caro. Sim, tb é marketing. Sim, pode falhar. Mas pelo menos é mais uma escolha.
Se não falhar, a Ati lança algo do genero e fica tudo em paz.

Edit: Punkas, esse foi o caminho tomado pela Xgi/Ati (Fury Maxx) e não deu grande resultado. A nVidia tb já teve uma placa com 2 gpu, a Nvs400. Por algum motivo eles preferiram este caminho.
 
Nemesis, não parece teu perderes a paciência :)

e devo dizer que com o teu comentário, não fica muito espaço para comentar mais nada :P


Edit:
Nemesis11 disse:
Edit: Punkas, esse foi o caminho tomado pela Xgi/Ati (Fury Maxx) e não deu grande resultado. A nVidia tb já teve uma placa com 2 gpu, a Nvs400. Por algum motivo eles preferiram este caminho.


já arranjei espaço para comentar mais um pouco! :D


provavelmente a nvidia escolheu este caminho, pq em termos economicos é obviamente melhor.
repara que a nvidia em vez de investir num processo de fabricar placas com dual-core, em que depois não sabia como seria a sua aceitação, tem placas que são normais, e quem quiser esse sistema apenas tem de comprar mais uma placa e a peça para as ligar.

fica mais uma porta aberta para a nvidia ganhar $, sem ter de se chatear com nada.
 
Última edição:
[JoaoR] disse:
Nemesis, não parece teu perderes a paciência :)

e devo dizer que com o teu comentário, não fica muito espaço para comentar mais nada :P

Muito sinceramente, desculpa.
Agora olhando para o post, podia ter dado a minha opinião sem ser tão agressivo e sem ter algumas coisas estupidas.

Não tenho nada contra quem não gosta do Sli e as "comichões" são mais em foruns estranjeiros, onde aparecem as justificações mais incriveis, tanto para glorificar o Sli como para dizer mal.

E sim, no teu primeiro post tens razão, é marketing. O nome Sli não foi escolhido por acaso, quando do Sli da 3dfx tem pouco. A filosofia é a mesma, mas acaba aí.

p.s. - Eu não vou comprar nenhuma nF4 e muito menos 2 graficas em Sli.
 
Última edição:
Joao, criar um chip gráfico Dual-Core actualmente é impossivel.

O NV40 já de si no processo de 0.13 microns é complicadíssimo de criar, por alguma razão só a IBM é que tem capacidade de o fabricar... a 0.11 já será melhor, espera-se.


De futuro, pode ser, quem sabe.
 
Back
Topo