Gráfica Nvidia Ampere 8nm (RTX 3000 series)

Por acaso vai ser uma geração engraçada, há muito que não se tinha esta ideia de que o alvo a superar de uma gráfica, é uma consola :D

A mim sempre me causou um pouco confusão estas comparações, pois pelo preço de uma consola não se monta um pc para jogar com a mesma qualidade.
 
Por acaso vai ser uma geração engraçada, há muito que não se tinha esta ideia de que o alvo a superar de uma gráfica, é uma consola :D

A mim sempre me causou um pouco confusão estas comparações, pois pelo preço de uma consola não se monta um pc para jogar com a mesma qualidade.
2080 super/ti ja supera proxima geração de consola , fluidez , fps , resolução , não se pode comparar a consola.
Consola que tem de bom é preço acessível e exclusivos bons que apesar de alguns vir para pc depois .
Mas para quem quer 1080p/2k com maior fluidez dá para fazer pc mais em conta .
 
Última edição:
On other news:
https://www.tweaktown.com/news/7466...-pin-pcie-cable-for-geforce-rtx-30/index.html
74662_08_seasonic-teases-nvidias-new-12-pin-pcie-cable-for-geforce-rtx-30_full.jpg
 
Última edição pelo moderador:
No texto da caixa: "It is recommended to use a power supply rated 850W or higher with this cable".

Nice......
Isso será a seguir o mesmo que acontece na potência recomendada das graficas , qye è sempre muito superior ao realmente necessario para ter em conta o pior caso possivle, qur é uma fonte rasca, cpu a puxar 300w e 50 fitas de leds a iluminar o quarto:lol:.
Uma fonte boa de 650w com 2x 8 pin aguentará perfeitamente .
 
Última edição pelo moderador:
Isso será a seguir o mesmo que acontece na potência recomendada das graficas , qye è sempre muito superior ao realmente necessario para ter em conta o pior caso possivle, qur é uma fonte rasca, cpu a puxar 300w e 50 fitas de leds a iluminar o quarto:lol:.
Uma fonte boa de 650w com 2x 8 pin aguentará perfeitamente .

O ponto não é esse. É óbvio que as recomendações têm que ser sempre acima do "normal", para ter em conta fontes que não valem um carapau.

O ponto é que um TDP de 350 ou mais W, para uma gráfica para o mercado geral, é descabido. É certo que esta gráfica é para um mercado High End, mas o formato e o consumo desta gráfica levanta uma data de limitações. Limitações de Cooling, Caixas, Fontes, Preços, etc.
A noticia diz que as OEMs não vão usar aquele conector de 12 pinos, mas vão usar 2 ou 3 conectores de 8 pinos. Não falam dos de 6 pinos. Cada conector de 8 pinos são 150W que pode fornecer. Isto ainda podendo-se adicionar + os 75W do slot Pci-Ex (Se usar) + Possiveis conectores 6 pinos (Se usar).
Sinceramente, pergunto-me se a nVidia não estará a puxar demasiado, por medo da concorrência(?).

Também estou curioso para ver o que sai daquele sistema de cooling. Pela eficácia, preço e custo.
 
O ponto não é esse. É óbvio que as recomendações têm que ser sempre acima do "normal", para ter em conta fontes que não valem um carapau.

O ponto é que um TDP de 350 ou mais W, para uma gráfica para o mercado geral, é descabido. É certo que esta gráfica é para um mercado High End, mas o formato e o consumo desta gráfica levanta uma data de limitações. Limitações de Cooling, Caixas, Fontes, Preços, etc.
A noticia diz que as OEMs não vão usar aquele conector de 12 pinos, mas vão usar 2 ou 3 conectores de 8 pinos. Não falam dos de 6 pinos. Cada conector de 8 pinos são 150W que pode fornecer. Isto ainda podendo-se adicionar + os 75W do slot Pci-Ex (Se usar) + Possiveis conectores 6 pinos (Se usar).
Sinceramente, pergunto-me se a nVidia não estará a puxar demasiado, por medo da concorrência(?).

Também estou curioso para ver o que sai daquele sistema de cooling. Pela eficácia, preço e custo.

Concordo 350w é demasiado... Malta sem ar condicionado no verão vai sofrer. Eu pessoalmente não quero nada acima dos 250w, mas também não tenho ar condicionado instalado no meu quarto, nem estou a pensar em instalar.

Por um lado é bom. No verão faz-se underclock/undevolt e no inverno OC, sempre se poupa no aquecedor. :lol:.

Se o preço for mesmo 599$ para a rtx 3070 com apenas 8GB devo esperar por RDNA2, que certamente será mais eficiente.
 
Última edição:
Se o preço for mesmo 599$ para a rtx 3070 com apenas 8GB devo esperar por RDNA2, que certamente será mais eficiente.

Era preciso uma volta muito grande para de um momento para o outro a AMD conseguir ser mais eficiente que a Nvidia, tendo em conta que a 2070 Super tem um TDP inferior à 5700 XT, num chip que tem mais do dobro do tamanho.
 
Era preciso uma volta muito grande para de um momento para o outro a AMD conseguir ser mais eficiente que a Nvidia, tendo em conta que a 2070 Super tem um TDP inferior à 5700 XT, num chip que tem mais do dobro do tamanho.

Pois é, se conseguir seria cá uma revolução para o produto a AMD! Ao contraio dos CPU's com a intel a "dormir" não se vê a nvidia a dormir...
Pode até aumentar os consumos nesta nova geração, mas parece que os ganhos também serão à altura... para mim é esperar o lançamento falta tão pouco e tanta discussão em torno delas...:rrotflm:está tudo o mundo ansioso :004: está quase:beerchug:
 
https://videocardz.com/newz/micron-confirms-nvidia-geforce-rtx-3090-gets-21gbps-gddr6x-memory

Micron estimates that GeForce RTX 3090 will be able to break the 1 TB/s barrier with a bandwidth expected between 912 to 1008 GB/s. In order to achieve 1TB/s bandwidth, the graphics card would require a clock speed of 21 Gbps and a memory bus of 384-bit (21*384/8). The speed is clearly not yet set for the NVIDIA SKU, but it should be between 19 and 21 Gbps.

Tadinha da minha 1080, nem com oc faz 10 gbps...
 
Última edição:
Pois é, se conseguir seria cá uma revolução para o produto a AMD! Ao contraio dos CPU's com a intel a "dormir" não se vê a nvidia a dormir...
Pode até aumentar os consumos nesta nova geração, mas parece que os ganhos também serão à altura... para mim é esperar o lançamento

Aliás, estes 350W da 3090, que para já não passa de um rumor, quantos desses Watts não são para os também rumorados 24GB de GDDR6X a 21Gbps?
 
Micron estimates that GeForce RTX 3090 will be able to break the 1 TB/s barrier with a bandwidth expected between 912 to 1008 GB/s.

Vou ser picuinhas só para dizer que nem 912, nem 1008 GB/s bate a barreira dos 1 TB/s. Ok, na prática 1008 GB/s fica perto de 1 TB/s.

Aliás, estes 350W da 3090, que para já não passa de um rumor, quantos desses Watts não são para os também rumorados 24GB de GDDR6X a 21Gbps?

Se forem 24 módulos de 8 Gbit, como se fala, andará por volta dos 60 W, o que levanta a questão de, numa gráfica deste preço, porque é que vão usar GDDR6X em vez de HBM, que para a mesma bandwidth, teria um TDP mais baixo. Talvez o controlador de memória não suporte HBM.
 
Pah... Vamos deixar a discussão "PC vs Consola" para outro lado...

E também vamos dar uma pausa na discussão de preços? andamos páginas e páginas a discutir preços.

O que mais interessa é specs e afins, preços só quando sair, não vale a pena sofrer por antecipação.

Já ha precos/data para a 3050?

A 3050 é provável que só apareça pro ano. A nVidia normalmente lança primeiro os flagships e depois vai lançando o resto

Na Pascal a ordem foi:
1080 -> 1070 -> 1060 -> 1050 (ti) -> 1080 ti -> 1030 -> 1070 ti

Na Turing:
2080 -> 2080 ti-> 2070 -> 2060 -> 1660 -> 1650 e por aí afora.

Este ano que parecem que a 3090 deve vir já no day 0, talvez junto com a 2080. As outras seguem semanas ou meses depois. Na Pascal e Turing foi assim relativamente à primeira e a xx50:

A GTX 1080 saiu em 27 de maio de 2016 com a 1050 ti a chegar em 25 de Outubro de 2016, portanto 5 meses de diferença
A RTX 2080 saiu em 20 de Setembro 2018, mas a 1650 só chegou em 23 de Abril de 2019, portanto 7 meses de diferença!!

Se bem que a RTX 3050 deve ocupar o segmento da 1660/super/ti, seja no consumo (placas entre 100 e 150w), seja no preço. A 1050 ti e 1650 são placas de 75w sem conector de energía, quase certo que o que surgir deve abdicar do RT e DLSS.
 
Última edição:
Se forem 24 módulos de 8 Gbit, como se fala, andará por volta de 60 W, o que levanta a questão de, numa gráfica deste preço, porque é que vão usar GDDR6X em vez de HBM, que para a mesma bandwidth, teria um TDP mais baixo. Talvez o controlador de memória não suporte HBM.

Verdade seja dita, o user target dessas gráficas não se preocupa com os Watts que as mesmas consomem.
 
Aliás, estes 350W da 3090, que para já não passa de um rumor, quantos desses Watts não são para os também rumorados 24GB de GDDR6X a 21Gbps?

Não será placa para mim, não necessito... seja como for, o consumo será alto, mas talvez justifique, caso a nvidia tenham aumentando a performance em detrimento do consumo... agora ver a AMD aumentar performance au equiparar as gamas altas da nvidia e ao mesmo tempo baixar o consumo seria sem duvida um grande avanço... desconfio... mas... serio gostava de ver a AMD fazer que fez com os CPU, mas lá está, com a nvidia a dar cartadas, fica difícil...

Gostar de ver melhores preços, gostava, mas assim fica difícil hum...

Mas a tão perto de termos anuncio OFICIAL, penso que é mesmo melhor esperar :rrotflm:ou isto é apostas? para ver quem mais aproximará da realidade?

Vram HBM. sempre baixaria o consumo? Varia muita diferença???... ou estou errado, apesar do aumento de preço!
 
As de topo vão ser apresentadas no dia 1 de Setembro e as supostas 3050 provavelmente só para o próximo ano.

Quanto a preços e performance só fazendo futurologia [emoji38]


Até nem desgosto serem só para o ano para ser sincero.

Entre a rtx 2060 e a 1660 super fui para a 1660 super que ainda eram menos 100euros com menos 15/20% (?) de performance, se a 3050 for muito superior á 2060 com preco razoavel salto logo de cabeça e fico com gráfica para uns aninhos. Também nao sou daqueles que joga "aserio", perdi o amor aos chamados triple A a uns anos largos, parece tudo reciclado com uma pintura nova, quase tudo que é jogo hoje em dia segue a mesma formula more or less (ubisoft...) gosto de jogar online e para isso devo ficar preparado para uns anos largos.
 
Back
Topo