[Rumor] Nvidia GT300

Cada vez mais esse conceito de gráfica para jogar está a cair por terra e isso é mais que evidente... desde video transcoding que ambas a nVIDIA e ATI publicitam (e mais uma vez a velocidade da ATI é uma miséria comparada com a nVIDIA) até ao novo photoshop onde o boost de performance é tremendo devido ao CUDA. Não há volta a dar, o GPGPU veio para ficar e a ATI nesse campo ou acorda ou perde o comboio...

A unica aplicação de video comum (optimizações cuda +ati stream+core i7) de transcoding que usa partido da grafica é o Cyberlink Expresso e ainda não vi nenhum benchmark.
Relativamente ao photoshop, ele usa uma API openGL capaz de correr numa grafica ati, intel, nvidia, S3 portanto não percebi essa parte do photoshop com boost tremendo do cuda.

muddymind disse:
Vê o programa de transcoding da ATI e o badaboom nas nVIDIA e depois compara a performance para teres mais uma confirmação do mesmo :P Aliás, numa recente entrevista ao director de markting (penso eu) da AMD que foi postada aqui no fórum deu mesmo para ver que eles se tão mesmo a "lixar" para isto o que é triste...
O badaboom é a pagar. O transcoding da ATI é gratis.
Relativamente á velocidade por acaso o transcoding da ATI é mais rapido o problema é que tem muito poucas opções e a qualidade final é inferior á dos CPU's.
Existe o Cyberlink Expresso mas não conheço reviews dele.

Daí concordo mas tirava o Cuda daí para fora já que como expliquei anteriormente ele vai dar suporte a OpenCL e nesse campo não o considero hyped. De resto sim, concordo perfeitamente com o physx ser hyped e é completamente óbvio que plataformas proprietárias tendem sempre a cair por terra...
Cuda é uma API proprietaria portanto a tendencia é a mesma.
 
Última edição:
Relativamente ao photoshop, ele usa uma API openGL capaz de correr numa grafica ati, intel, nvidia, S3 portanto não percebi essa parte do photoshop com boost tremendo do cuda.

Existem plug-ins que usam CUDA unicamente... :P (por exemplo, axo que um chamado rapidHD ou algo do género só funciona com CUDA)

O badaboom é a pagar. O transcoding da ATI é gratis.
Relativamente á velocidade por acaso o transcoding da ATI é mais rapido o problema é que tem muito poucas opções e a qualidade final é inferior á dos CPU's.

Wrong! às mesmas definições ele não é mais rápido :P

Cuda é uma API proprietaria portanto a tendencia é a mesma.

Quando se fala em CUDA é quase como falar em OpenCL já que são praticamente iguais :P
 
Sinceramente só mesmo por muito má vontade é que alguém pode considerar DX10.1 hype.

Para já, a tecnologia até é da Microsoft, e se a microsoft resolveu implementá-la no Vista, porque é que os fabricantes de GPU não haveriam de a aproveitar, já que trazia melhoramentos?

A ATI aproveitou e usou-a como mais valia na venda das placas. A nvidia não. Aposto que se fosse o contrário já não seria hype...:rolleyes:

Mais a mais, ficou amplamente provado em alguns jogos (infelizmente poucos) que o DX10.1 trazia melhoramentos em performance, principalmente com filtros. o Assassin's Creed corria maravilhosamente bem em placas ATI de média gama, o HAWX corre muitíssimo bem também. Se não houve mais boa vontade por parte dos criadores de jogos a nvidia tem, alguma culpa, fosse por 'pressões' para que estes não incluíssem a tecnologia (caso do Assassin's Creed), por serem jogos TWIMTBP, fosse pelos estúdios acharem que simplesmente não valia a pena por haver apenas um fabricante a suportar essa tecnologia.

Em suma, não é hype nenhum. O DX10.1 trouxe melhoramentos bem visíveis nos poucos casos em que foi implementado. E quem não quiser admitir isso das duas uma: ou é teimoso ou é fanboy.

Até digo mais: o que o DX10.1 trouxe de novo foi bem mais importante em termos práticos do que a porcaria do CUDA, que basicamente só serve para folding ou para meter uns vidrinhos a partirem-se e uns paninhos a ondular ao vento em alguns jogos. Isso sim, é hype de tão ridículo que é. Não são esses pormenores que fazem dum jogo uma boa experiência. É muito mais importante a fluidez contínua do jogo e poder-se jogar com mais filtros. Qualquer pessoa troca isso pelos paninhos ao vento sem pensar duas vezes.
 
Última edição:
Não digo que o DX10.1 não seja vantajoso ou que não traga nada de novo e nem que não vale a pena... O que agora digo é que é ridículo todo o hype à sua volta quando isso praticamente não se vê em aplicação nenhuma...

Relativamente ao CUDA (novamente estou a referir-me novamente ao port de OpenCl) acredito vivamente que as coisas vão mudar muito e penso que deve ser provavelmente a direcção que a nVIDIA deverá tomar na sua próxima GT300... E não esquecer que não falo de jogos mas de computação em geral :Paqui uma vista de olhos para perceberes que não tem apenas a haver com folding mas que dá para uma infinidade de situações (Uma antiga colega minha de universidade tá a usar cuda actualmente numa investigação que tá a fazer e só diz maravilhas daquilo). É verdade que apps para público em geral ainda não as há muito mas isso deve-se ao facto de CUDA apenas correr em nVIDIA o que torna pouco atractivo para o mercado generalista mas isso é algo que vai com certeza mudar com o OpenCL :P
 
Não digo que o DX10.1 não seja vantajoso ou que não traga nada de novo e nem que não vale a pena... O que agora digo é que é ridículo todo o hype à sua volta quando isso praticamente não se vê em aplicação nenhuma...

Relativamente ao CUDA (novamente estou a referir-me novamente ao port de OpenCl) acredito vivamente que as coisas vão mudar muito e penso que deve ser provavelmente a direcção que a nVIDIA deverá tomar na sua próxima GT300... E não esquecer que não falo de jogos mas de computação em geral :Paqui uma vista de olhos para perceberes que não tem apenas a haver com folding mas que dá para uma infinidade de situações (Uma antiga colega minha de universidade tá a usar cuda actualmente numa investigação que tá a fazer e só diz maravilhas daquilo). É verdade que apps para público em geral ainda não as há muito mas isso deve-se ao facto de CUDA apenas correr em nVIDIA o que torna pouco atractivo para o mercado generalista mas isso é algo que vai com certeza mudar com o OpenCL :P

Pois aí é que está. Secalhar a imagem que passou para fora é o DX10.1 ser um hype sem sentido, quando a ATI limitou-se a usar uma tecnologia disponível na geração de chips que estava a desenvolver. Esperava-se que a nvidia fizesse o mesmo e não fez.
Acho injusto atirar com a palavra hype para cima da ATI quando ela apenas se limitou a sublinhar e a fazer bandeira de marketing duma feature que só eles é que tinham. A nvidia tem feito o mesmo com o CUDA, que como muito bem dizes, ainda está longe de ter aplicações práticas e visiveis na indústria dos jogos.

Tomara eu e muitos proprietários de placas ATI que mais jogos implementassem DX10.1, mas isso infelizmente não depende da ATI. E o lobby nvidia é mais forte nessa matéria. Foi pena que não tivessem existido mais jogos a suportar a nova API, mas também não acho que as pessoas tivessem pago mais pelas placas só por terem DX10.1.
No fundo acho que ninguém perdeu nada com isso, até muito pelo contrário, já que quando a API DX11 estiver a ser implementada em larga escala, as placas da geração HD4XXX vão suportar algumas extensões, já que a API DX11 será (se não estou em erro) retrocompatível com a DX10.1.
 
O que vocês se esquecem é que a maior parte do mercado está-se a lixar para o PhysX ou DX10.1, o que interessa é ter mais FPS em jogos por menos €€, e nesse ponto a Nvidia está a perder terreno e vai continuar assim enquanto não acordarem para a vida. A arrogância é tanta que acham que vale a pena dar mais 30~50€ (dependendo da placa) para ter a porcaria do PhysX que para além de ser inútil para gamers ainda faz as placas de gama média se engasgarem todas.
 
O que vocês se esquecem é que a maior parte do mercado está-se a lixar para o PhysX ou DX10.1, o que interessa é ter mais FPS em jogos por menos €€, e nesse ponto a Nvidia está a perder terreno e vai continuar assim enquanto não acordarem para a vida. A arrogância é tanta que acham que vale a pena dar mais 30~50€ (dependendo da placa) para ter a porcaria do PhysX que para além de ser inútil para gamers ainda faz as placas de gama média se engasgarem todas.

Também não diria tanto. Não se pode nem deve subestimar a nvidia. Eles já surpreenderam o mercado muitas vezes - mesmo que fosse com soluções megalómanas - e vão voltar a fazê-lo. cheira-me que vem aí uma cartada segura com os chips a 40nm. Aliás, TEM que vir uma cartada segura, senão a ATI pode sentar-se à sombra da bananeira com as HD5XXX e isso não seria nada bom para nós consumidores.
 
Existem plug-ins que usam CUDA unicamente... :P (por exemplo, axo que um chamado rapidHD ou algo do género só funciona com CUDA)
Para o Photoshop ha uma API OpenGL.
RapidHD? Pelo nome eu diria que deve ser outra utilite igual ao Badaboom.



muddymind disse:
Quando se fala em CUDA é quase como falar em OpenCL já que são praticamente iguais :P
O que não abona a favor de nenhum para bem da verdade. O nivel de abstração é muito mau.
Felizmente a Microsoft deve por ordem na casa com o DX_11 e sair-se com algo melhorzinho:
http://forum.zwame.pt/showpost.php?p=4585253&postcount=1
 
Para o Photoshop ha uma API OpenGL.

Eu sei que tem uma API OpenGL mas há plug-ins que precisam explicitamente do CUDA


O que não abona a favor de nenhum para bem da verdade. O nivel de abstração é muito mau.
Felizmente a Microsoft deve por ordem na casa com o DX_11 e sair-se com algo melhorzinho:
http://forum.zwame.pt/showpost.php?p=4585253&postcount=1

É verdade que o OpenCL é uma API ligeiramente "feia" de se trabalhar devido à fraca abstracção do paralelismo mas continua a ter uma vantagem relativamente ao DX11 (que penso que ainda não tem a API totalmente definida por isso não me posso pronunciar relativamente à sua usabilidade e acessibilidade) que é o maior suporte a hardware (CELL e afins que permite correr nas plataformas mais variadas) e o facto óbvio de ser independente do SO... Relativamente ao nº de threads por grupo e à mem partilhada por grupo isso poderá sempre a ser aumentado numa posterior revisão tal como ocorre já há algum tempo com os pixel e vertex shaders :P (no entanto mesmo a versão actual não deixa ser já francamente boa para a maioria das aplicações :P)
 
NVIDIA's upcoming next-generation graphics processor, codenamed GT300 is on course for launch later this year. Its development seems to have crossed an important milestone, with news emerging that the company has already taped out some of the first engineering samples of the GPU, under the A1 batch. The development of the GPU is significant since it is the first high-end GPU to be designed on the 40 nm silicon process. Both NVIDIA and AMD however, are facing issues with the 40 nm manufacturing node of TSMC, the principal foundry-partner for the two. Due to this reason, the chip might be built by another foundry partner (yet to be known) the two are reaching out to. UMC could be a possibility, as it has recently announced its 40 nm node that is ready for "real, high-performance" designs.

The GT300 comes in three basic forms, which perhaps are differentiated by batch quality processing: G300 (that make it to consumer graphics, GeForce series), GT300 (that make it to high-performance computing products, Tesla series), and G200GL (that make it to professional/enterprise graphics, Quadro series). From what we know so far, the core features 512 shader processors, a revamped data processing model in the form of MIMD, and will feature a 512-bit wide GDDR5 memory interface to churn out around 256 GB/s of memory bandwidth. The GPU is compliant with DirectX 11, which makes its entry with Microsoft Windows 7 later this year, and can be found in release candidate versions of the OS already.

http://www.techpowerup.com/94525/NVIDIA_GT300_Already_Taped_Out.html

Parece que vem mesmo aí um monstrinho em 40nm para o natal...
 
Pois mas isso só vai encarecer a produção do PCB... vamos a ver pois realmente a nVIDIA smp teve o hábito de usar buses de memória abusados :P

Quem chegou primeiro aos 256bit (9700 Pro) e depois aos 512bit (HD2900 XT) até foi a ATI, calha bem... :rolleyes:

Se os engenheiros da Nvidia precisam dessa quantidade de GB/s para o GT300, podes estar certo que é por uma razão muito concreta, e eles, mais do que ninguém, estão cientes dos custos e benefícios técnicos e económicos dessa decisão.
Até porque os rumores até ao final de 2008 davam conta de um GT300 com GDDR5 a 900MHz (3.6GHz efectivos) e um bus de "apenas" 384bit.
 
Última edição:
Tou a gostar de ver, se não abusarem nos preços devo trocar de cores na próxima geração, a menos que a AMD faça igual ou melhor. É pena não se ver notícias do RV870 :(
 
nVidia GeForce "GTX380" clocks leak out?


We decided to start Monday on a different scale - your Ed-in-Chief woke up at 2AM European time, just in time for Asia to wake up... and we decided to hear all that we can from interested parties. Information we received was quite interesting - companies know that nVidia has the samples of NV70/G300/GT300 silicon, but they were not delivered through usual sources - which would explain the lack of pictures coming from Chinese websites.
As usual, nVidia is keeping their partners in the dark, but there is a certain power struggle between the companies, with questions flying left and right - in fact, we heard partners repeating the information that originated from our site. At recent annual shin-ding for partners, nVidia was cocky and claimed that the company call help the partners out of the crisis. The GT300 just might be the reason for over-confidence typical when nVidia has a strong part coming out.
First internal cards are based on A1-stepping and feature 1024MB of GDDR5 memory, with all the memory chips located on front of the card. There are also cards with 2048MB, but we were unable to confirm the codename for the 2GB board. Oddly enough, the 1GB card has a codename fitting nicely in the current line-up, even behind one upcoming dual-GPU single-PC part, which would imply that nVidia has the cards for several weeks now.
According to the German site Hardware-Infos, the sample boards now come with a higher GPU clock. The alleged GT300 A1 silicon ticks at 0.7 GHz, with 512 cores working at 1.6 GHz. GDDR5 memory was upped to 1.1 GHz QDR or 4.4 GT/s [billion transfers per second], resulting in memory bandwidth of massive 281.6 GB/s. According to information we had, nVidia firstly clocked the at 1:1 ratio with GeForce GTX280 for a baseline comparison. If the leaked informationis true and those clocks remain final, that would mean GTX380 missed it targeted clock by a double-digit percentage. Still, a beast nevertheless.
If the figure of 1.6 GHz for 512 shaders is final, then the chip can achieve 2457 GFLOPS, e.g. 2.46 TFLOPS. This is a very good jump from 933 GFLOPS on the original GTX280. But the dark horse here is not the single-precision score, but rather the efficiency of dual-precision format. If our sources were true, GT300 chip has radically improved way of calculating dual precision operations and should bring anywhere between 7-10x improvement in performance. Given that ATI's Radeon 4800 series destroyed GT200 series in dual-precision, we are not surprised to hear about large improvements in DP performance.

Link

Ganda monstro que aí vem... :D Me likezz
 
Back
Topo