Gráfica Nvidia Ampere 8nm (RTX 3000 series)

Não é estranho fazer apenas 1,11 Ghz?
Não seria muito complicado para a Nvidia criar um Gpu com metade dos SM's, mas a funcionar a 2 Ghz, o que daria quase a mesma potencia.
 
65x4lvv.png


Score de 222 mil, quando o máximo que a V100 faz é 153 mil.

Acho que confundiste os benchs.

Esses 153 mil são do bench em OpenCL. Em cuda a V100 faz 212570, o que acaba por ser um valor próximo
 
Isso dá 36 TFlops.

Quando as novas consolas saíram, já vão estar completamente desatualizadas em relação ao que o PC pode fazer.
 
Isso dá 36 TFlops.

Quando as novas consolas saíram, já vão estar completamente desatualizadas em relação ao que o PC pode fazer.
Ultimante tem sido assim .PS4/xbox já foi assim , pc sempre vai estar um passo a frente e agora que as coisas evolui bem . Consolas vao ter um belo upgrade face o que foi ps3 para 4 no meu ver , principalmente no cpu onde AMD melhorou imenso .
Própria 2080ti já é superior a ps5/xbox em power bruto mas com consola beneficiando de otmizacoes .
 
Última edição:
2.2 Ghz de boost numa "bolacha" daquelas?
Eu tenho sérias duvidas. Ou pelo menos, duvido que se aguente muito tempo a 2.2 Ghz, com um TDP de 300W.

Só para comparação, a melhor V100 a nível de clock, a V100S, tem um boost clock de 1.6 Ghz. Sim, o TDP é "apenas" de 250W.

Adorava estar errado. Essa GA100 seria um monstro a nível de computação, com essas unidades e clock. :)
 
Só para comparação, a melhor V100 a nível de clock, a V100S, tem um boost clock de 1.6 Ghz. Sim, o TDP é "apenas" de 250W.

Mas o Boost Clock oficial é sempre bastante inferior ao que realmente dá, correto? Por exemplo, o boost clock da 1070 Ti é de 1683 Mhz, mas quando a liguei a primeira vez, sem fazer qualquer alteração, foi logo para os 1911 Mhz.

Com o shrink de 12nm para 7nm, parece-me natural que consigam esticar o clock um pouco para cima. Veremos se atinge mesmo essa marca ou se é apenas mais fake news.
 
Mas o Boost Clock oficial é sempre bastante inferior ao que realmente dá, correto? Por exemplo, o boost clock da 1070 Ti é de 1683 Mhz, mas quando a liguei a primeira vez, sem fazer qualquer alteração, foi logo para os 1911 Mhz.

Com o shrink de 12nm para 7nm, parece-me natural que consigam esticar o clock um pouco para cima. Veremos se atinge mesmo essa marca ou se é apenas mais fake news.

Se nao conseguirem não foge dos 2100mhz . 7nm ainda deve dar mais manobra .
 
Mas o Boost Clock oficial é sempre bastante inferior ao que realmente dá, correto? Por exemplo, o boost clock da 1070 Ti é de 1683 Mhz, mas quando a liguei a primeira vez, sem fazer qualquer alteração, foi logo para os 1911 Mhz.

Com o shrink de 12nm para 7nm, parece-me natural que consigam esticar o clock um pouco para cima. Veremos se atinge mesmo essa marca ou se é apenas mais fake news.

Boa pergunta. De facto não me lembrei do detalhe que nas gráficas consumidor, o clock vai além do Turbo boost das specs.
Tentei procurar se isso acontece nas Tesla, mas não encontrei. A minha duvida se isso se aplica às Tesla é porque em Servidores, há quem dê muito valor à "previsibilidade" da performance. Em CPUs chega-se a desligar SMT, Turbo, etc, para ter a maior "previsibilidade" possível.

Se aqueles 2.2 Ghz não forem o Turbo Boost e sim o clock mais elevado possível, talvez uma GA100 chegue lá, até pelo referido TDP de 300W. Se for o Turbo Boost das specs, continuo a não acreditar muito. :)
 
A GTC há uns das tinha passado a ser "Online Only". Agora, as noticias que iam ser anunciadas na GTC, foram adiadas.

We have exciting products and news to share with you.

But this isn’t the right time. We’re going to hold off on sharing our GTC news for now.

That way, our employees, partners, the media and analysts who follow us, and our customers around the world can focus on staying safe and reducing the spread of the virus.

We will still stream tons of great content from researchers and developers who have prepared great talks.

This is a time to focus on our family, our friends, our community. Our employees are working from home. Many hourly workers will not need to work but they’ll all be fully paid.

Stay safe everyone. We will get through this together.

https://blogs.nvidia.com/blog/2020/03/16/gtc-update/
 
Se queres que seja sincero, já deviam ter mudado o nome muito tempo. O gap entre xx80 vs xx80 ti nas 3 ultimas gerações (900, 1000 e 2000) é muito grande. Faz mais sentido a xx80 ti ser o full chip

Bem diferente da GTX 780 e 780 ti, que eram efectivamente o mesmo chip e com diferença não muito grande.

Portanto faz sentido que
Titan: GA100 (Portanto uma GTX TITAN de homem, que usa o mesmo chip das Tesla, com FP64 a sério, como na Titan original aka GK110)
RTX 3090: GA102
RTX 3080: GA103
RTX 3070/60: GA104 (isso se existir sequer uma 3060 no lançamento e não depois para limpar stock de chips ranhosos)
GTX 1760: GA106
GTX 1750: GA107

Há clara diferenciação
e aí os sufixos TI ficavam para gráficas com o gpu completamente habilitado.
 
Se queres que seja sincero, já deviam ter mudado o nome muito tempo. O gap entre xx80 vs xx80 ti nas 3 ultimas gerações (900, 1000 e 2000) é muito grande. Faz mais sentido a xx80 ti ser o full chip

Bem diferente da GTX 780 e 780 ti, que eram efectivamente o mesmo chip e com diferença não muito grande.

Portanto faz sentido que
Titan: GA100
RTX 3090: GA102
RTX 3080: GA103
RTX 3070/60: GA104 (isso se existir sequer uma 3060 no lançamento e não depois para limpar stock de chips ranhosos)
GTX 1760: GA106
GTX 1750: GA107

Há clara diferenciação
e aí os sufixos TI ficavam para gráficas com o gpu completamente habilitado.
Diria mais:
RTX 3090: GA102
RTX 3080: GA103
RTX 3070: GA104
RTX 3060: GA106
RTX 3050: GA107

Supostamente toda a lineup seria com RT já.
 
Isso era num mundo perfeito, mas não acredito que a nVidia volte a sacrificar o RT e Tensor para fazer dies pequenos para o mass market.
 
Back
Topo