Gráfica Nvidia Ampere 8nm (RTX 3000 series)

Tenho mais interesse no preco/performance comparando com a actualidade do mercado, do que propriamente um conector..
.. que duvido que seja aplicado a todos.. mas a ser, o mais certo e que vai tudo corrido a adaptadores.. pois nao ha muita gente a querer comprar cabos costumizados para uma grafica oi a trocar se fontes quando tal nao e aplicado.
 
O que a Nvidia pode ter feito é meter os gpus de gama de mais performance a vir da TSMC e os de gama média e baixa da Samsung.
Ou seja, arquitectura é aproximada, mas foi segmentada/desenvolvida gamas diferentes tendo em conta os diferentes processos de fabrico.

Isto provavelmente vai ser o que vai acontecer ja aconteceu na outra gen.

Em relação ao cabo parece o cabo de 10 PIN do novo padrão ATX12VO. Mas sinceramente acho que isso sera mesmo so para a 3090(para um nicho esthusiasta) com dois desses +- 500w? As outras devem vir com os conectores normais a Nvidea não ia arriscar perder vendas por nem toda a gente ter capacidade de alimentar a gráfica.

Penso que a ideia e que a 3090 venha sem "power limit" para o máximo de performance possivel alcançável dai ser necessário um cabo especial para passar tanta energia para o "animal".(Não me admirava que fosse mais de 500w ate). Isso e duvido que esta gráfica venham com dissipador convencional, eram mais inteligentes que fizessem AIO com radiador embutido.

EDIT: Sinceramente ate acho que a Nvidea faz fzr algo que ja estava em desuso com a 3090, e vai fazer uma dual GPU multiplicando os cores dps quero ver o ray tracing =)

Cps
 
Última edição:
O ATX 12VO é um conector de 10 pinos e apenas 6 é pro "power". Este são todos os 12 fios pro power!

Mas é deveras bizarro porque o ATX12VO prevê 6+2 como PCIE aux power.
 
A parte que questiono é qual a utilidade actual ou futura de ter um conector que pode ir até 600W? Alimentar mais que 1 GPU ou outros dispositivos, com apenas 1 coneector?
 
A parte que questiono é qual a utilidade actual ou futura de ter um conector que pode ir até 600W? Alimentar mais que 1 GPU ou outros dispositivos, com apenas 1 coneector?

yup... Se estas gráficas vierem com 350W, vais precisar de 3x 8 pins e ai fica uma coisa já horrivel...

Já temos por exemplo a eVGA 2080 ti kingpin:

20-2.jpg


de 24 pins passa para 12, isso ajuda e de que maneira a arrumação... E permite mais power!

PAra alem que muito provavelmente isto até pode ser só nas Founders, e as restantes virem como habitual
é ver ..
E só deve vir na 3090/3080 e talvez 3070. As outras serão corridas a 8 e 6 pins.

Isso dava para fazer a "gambiarra" definitiva :D

4 cabos 2x molex para 6 pins
2 cabos 2x6 pins par 8 pins
1 cabo 2x8 pins para 12 pins

Deve incendiar-se de imediato :004:

Tou a ver que vão fazer juz ao nome "Ampere"...
 
yup... Se estas gráficas vierem com 350W, vais precisar de 3x 8 pins e ai fica uma coisa já horrivel...

Já temos por exemplo a eVGA 2080 ti kingpin:

20-2.jpg


de 24 pins passa para 12, isso ajuda e de que maneira a arrumação... E permite mais power!

Se eu estou a ver bem essa gráfica, tem 3 X 8 pins, que dá 450 W + os 75 W do slot Pci-Ex. Isto dá 525 W totais.
Há situações em que pode ser preciso fornecer 525 W à 2080 Ti que tem um TDP em stock de 250 W? Extreme OC? Ou só mesmo Extreme OC com LN2?
Se sim, se existirem essas situações, está explicado e compreendido, especialmente se novas gráficas tiverem 350 W TDP em stock. :)
À primeira vista, 600 W do conector + 75 W do slot Pci-Ex pareceu-me inútil para apenas uma placa. :)
 
Uma 2080Ti tem TDP de 250W. 6+8 pinos dão conta disso e ainda sobra. 8+8 dão mais do que margem para overclock.
Essa kingpin com 3x8 entra nos casos de "nicho de um nicho".
Criaram mesmo um conector para um nicho de um nicho? Ou vamos andar assim tão para trás na eficiência do hardware? (dúvido)

Não sei, alguma coisa não bate certo. Parece-me mas é que isto serve para testar um novo conector que só vai ser realmente útil é para depois abrir as goelas às teslas nos servidores...
 
O Videocardz colocou no Twitter que essa notícia do novo conector nas Ampere é falsa. Segundo eles, a fonte (chinesa) foi mal traduzida e deu origem a essa confusão.

Vale o que vale...
 
@Nemesis11 sim, as kingpin é uma gráfica de nicho, para meter debaixo de LN2 e puxar forte. Em condições normais provavelmente opera com 8 + 8 na boa e ainda sobra para overclock a ar ou água.

Além disso é provável que o PCIE nem sequer alimente o GPU e as memórias. Isso ocorre com as Vega 56/64, o power do slot só serve para as fans, daí a minha V56 tem 8 +8 mesmo sendo uma placa de 210w.

Este conector de 12 pins seria bem vindo se vier a ocupar os 8 +6 / 8 + 8, o que não me agrada é o facto se estar sendo feito para permitir "600w". Isso são 100w por cada fio 12V, logo vai precisar que os contactos sejam melhores, uma ficha robusta e fios 16AWG ou mesmo 14AWG.

Mesmo nas fontes modulares não admiro que se use 3 conectores do lado da fonte, não estou a ver os conectores permitirem 300W por ficha (75-100W por pino). lembrar que os contactos pode virar um ponto de resistência e pode derreter (além de obviamente aumentar o consumo).

Agora se este conector fosse "300w" ai eu ia apoiar a 100%. Uma ficha de 12 pinos é muito mais prático para ligar que 2x 8 e alem de tirar 4 fios.

Mas vou ficar desiludido se as placas high end começarem a ir nos 350-400w em default... Estamos a andar para trás na eficiência.

Uma gráfica stock com 350W stock vai ficar no limite do 8 + 8 + slot, daí que para evitar enfiar 3 plugs vão para esta solução manhosa.

Por um lado tivemos este animal (Radeon 295x2) que consumia 500w com "apenas" 8 + 8, portanto a puxar mais de 200w de um conector certificado para 150w...

2523-pcb-front.jpg


Mas houve AIBs que se calhar acharam algo perigoso e enfiaram 4 conectores:

37632_07_powercolor_s_r9_295x2_devil13_needs_four_8_pin_pcie_power_connectors.jpg
 
Última edição:
A A100 PCIe é um chip monstro e tem um TDP de 250W.

Mesmo considerando que as versões gaming vêm com clocks mais elevados, em contrapartida têm menos bus, menos VRAM e muito menos transistors para alimentar.

Até acredito que saia alguma 3080Ti ou Titan a esbarrar nos 300W, mais do que isso duvido seriamente.

Mas, time will tell.
 
A A100 PCIe é um chip monstro e tem um TDP de 250W.

A A100 Pci-Ex está limitada a 250W. No slot SMX3 vai até 450 W, com cooling monstruoso.
Não me lembro ao certo do valor, mas a nVidia disse algo que em load continuo a versão Pci-Ex chega a perder 50% de performance em relação à versão SMX3, ou algo do género.
Depois, a A100 Pci-Ex é para ser colocada em computadores (servidores) muito diferentes de computadores consumidor. Por exemplo, elas não têm cooling directo na placa (são placas passivas) e o cooling está no chassis. Quando se tem 8 ou mais placas Pci-Ex num servidor convém estarem dentro de certos parâmetros definidos pelas OEM.

Além disso, não se sabe qual a "relação" da A100 com as versões Ampere consumidor. Por exemplo, se as versões consumidor irão usar 7 nm TSMC, como a A100.

Não estou a dizer que as Ampere consumidor vão passar os 250 W de TDP. Apenas que por enquanto, o exemplo com a A100, mesmo na versão Pci-Ex, poderá não ser relevante. :)
 
8nm Samsung :puke:é bom que seja consideravelmente mais barato... Não vejo a suposta 3080ti a bater navi 2x sem DLSS e Ray Tracing.

O que li é que os 8nm da samsung serão usados apenas nas gamas mais baixas. As gamas altas é os 7nm TSMC.

Quanto ao resto, já há anos que sempre que vai sair um Gpu novo da AMD que vão arrasar com a Nvidia e depois é o oposto. Mas era bom que assim fosse, para mexer com este mercado que bem necessita.
 
Mesmo que a AMD venha com um GPU superior ao da Nvidia, sem uma tecnologia como DLSS, quem é que vai para AMD?
E se realmente o DLSS 3.0 vier com as novas gráficas e for assim tão simples para implementar (qualquer jogo com TAA e apenas necessário driver ready), ainda pior vai ser para a AMD.
 
Acredito que a Big Navi será superior à 2080 Ti.
Quanto a ser superior à 3080 Ti, já duvido muito, mas se realmente o for a um preço competitivo, era uma grande evolução para a AMD e bom para todos nós.

Mas duvido muito. Era preciso a AMD evoluir bastante e a Nvidia ir exactamente no caminho oposto.
 
Não acho que seja necessário e imperativo ter um "produto halo" ultra expensive.

Tem que ser é competitivo em preço, features e consumo... Até pode ficar pela performance da 3080 que já é uma bela gráfica.
 
Back
Topo