Gráfica [Rumor] AMD RV870

O que seria melhor, uma X4 ou uma die monolitica com os tais 4800 shaders?
Geralmente falando, e a não ser que se queira ter os problemas de desenvolvimento que a NVIDIA costuma ter (e que a ATI também já teve) com a abordagem da die monolítica, parece-me que a perda de performance que um sistema multi-die trará (overhead) geralmente faz mais sentido numa abordagem puramente economicista. É impossível desenvolver chips colossais nos tempos curtos que o mercado começa a exigir (menos de um ano, às vezes aproximadamente 6 meses...).

Por um lado, 4 dies separados terá yelds mais elevados e menos desperdício de cores defeituosos. Mas provavelmente mais consumo.
Não necessariamente, desde que seja implementado um sistema de gestão de energia decente. Idealmente, e ainda por cima se o bus de memória for partilhado, será possível desligar por completo as dies não usadas, o que é mais complicado de fazer numa die monolítica (embora os C2D, i7 e agora Phenom 2 sejam bons exemplos de gestão de energia em dies monolíticas).

de qualquer forma parece ser TRUE multi core design, com memoria partilhada. Assim acavaba os esquemas crossfire internos e que causava problemas.
Hmmm, atendendo a que as novas notícias falam em soluções multi-die completas (ou pelo menos assim me pareceu), será possível (re-)aparecer qualquer coisa do género do "ring-bus" que a ATI já usou antes? Não sei sequer se fará sentido em termos de desenho, mas a ideia parece interessante...

Para mim seria 4 gb ram GDDR5
Se a memória for mesmo partilhada como parece ser o caso, então não faz muito sentido que vá para lá do 1GB por GPU (ou seja, par de chips colados). Mais também me parece um bocado exagerado, exactamente por essa razão de a memória ser partilhada entre os GPUs do mesmo package.

É que as gráficas com quantidades colossais de memória (2GB ou mais) geralmente só têm tanta memória por causa da necessidade de o frame buffer ter de estar presente na RAM de cada núcleo. Ou seja, uma "5870 X4" só precisaria de dois framebuffers, podendo manter perfeitamente os 2GB de RAM das actuais X2, que geralmente não estão limitadas pela quantidade de memória, mas sim pela capacidade de processamento puro (ou do CPU do sistema, conforme o jogo... lol)

Quanto a memórias, GDDR5 quase de certeza absoluta. É a única que consegue ter largura de banda suficiente para a quantidade de dados que poderão fluir entre os núcleos do GPU

Cumps.

Miguel
 
Última edição pelo moderador:
Quero é saber datas. Prevejo que venham só por volta de H2 ou Q3, juntamente com o GT300(??), uma vez que a AMD tem o RV790 para combater o GT212.
 
Boas...

Ora bem, em relação á questão que se anda a falar sobre o multi die e multi gpu, esse aproximação será a mais correcta e possível de ser feita com a redução do imprint para 40nm.

Não acredito que numa primeira fase seja dois gpus num die, mas sim dois dies lado a lado por cada gpu.

Não esquecer que os consumos nesta dimensão são menores que nas actuais versões.
O CF está para ficar e até ser expandido em CFX (já que vai precisar sempre para as versões X4, e configurações, x2, x3, x4 e x8, com várias gráficas num único sistema.

Não espero ver gráficas com mais que 2 gigas de ram durante este e o próximo ano. No entanto e caso o framebuffer não seja partilhado, poderá haver uma possibilidade de um VERY High End, ter 3 ou 4 Gb.

Para Já apenas falamos de rumores, já que o produto está a ser muito bem guardado...

Vamos a ver as cenas dos próximos episódios.

Cumprimentos,

LPC
 
Última edição pelo moderador:
Certamente, os que têm um mínimo de conhecimentos técnicos sobre como funciona uma GPU estarão a rir-se com estes rumores de GPU's "dual-die" e "dual-core".

O caso não é para menos: é mesmo ridículo e não faz qualquer sentido, nem a nível técnico, nem a nível económico.
Na verdade, é mais caro, mais "power-hungry", precisa de mais transístores, etc, etc, etc, e dá menos performance do que simplesmente adicionar mais unidades lógicas às que já existem (ou retirar, para fazer produtos low-end, conforme necessário).
Todas as GPU's são "multi-core" de raíz há décadas.
 
Última edição:
Certamente, os que têm um mínimo de conhecimentos técnicos sobre como funciona uma GPU estarão a rir-se com estes rumores de GPU's "dual-die" e "dual-core".

O caso não é para menos: é mesmo ridículo e não faz qualquer sentido, nem a nível técnico, nem a nível económico.
Na verdade, é mais caro, mais "power-hungry", precisa de mais transístores, etc, etc, etc, e dá menos performance do que simplesmente adicionar mais unidades lógicas às que já existem (ou retirar, para fazer produtos low-end, conforme necessário).
Todas as GPU's são "multi-core" de raíz há décadas.

Daí eu perguntar.... 4 "dies" com 1200 shaders ou 1 die com 4800?

Eu vejo o lado económico. Com 1 chip tem logo metade de uma gama... Do segmento dos 150 até aos 500 € E melhor yelds. É mais facil fazer 1 die pequena do que uma monolitica.

Repara que com um só die tens 4 a 5 gráficas. Suponhando que cada core tenha 1200 shaders, para simplicar

(de baixo para cima)

1 Grafica single die "cortada" (como a 4830) aka aproveitamento de chips defeituosos, com 600-800 shaders -> Daqui até pode sair 2 variantes, uma com bus + shaders cortados e outra só com shaders.
1 grafica single die com chip em pleno - 1200 shaders
1 gráfica dual-die, com (2x 1200) = 2400 shaders
1 gráfica dual die/dual gpu 2x (2x 1200) = 4800 shaders

Cobre o segmento mid to high-end, dos 100 até os 500. Depois mais 1-2 gpus para o low-mid

Se for para a solução monolítica, terá que ter mais gpus diferentes, se bem que irá sair mais cores defeituosos para "cortar", mas é um desperdício enorme de transistors.

Claro que sabemos bem que tendo 1 core grande desenvolvido, criar versões mais pequenas é a brincar.
 
Última edição:
Daí eu perguntar.... 4 "dies" com 1200 shaders ou 1 die com 4800?

Eu vejo o lado económico. Com 1 chip tem logo metade de uma gama... Do segmento dos 150 até aos 500 € E melhor yelds. É mais facil fazer 1 die pequena do que uma monolitica.

Então pergunta-te: de que unidades funcionais são feitas as GPU's mais pequenas ? São diferentes das topo-de-gama ?

E se é mais fácil, porque é que nem a Nvidia, nem a AMD, simplesmente fizeram as placas de topo com uma série de G98's e RV710's em dual/multi-die ou dual/multi-core ?
Pensemos um pouco, sim ?
 
Porque começa ser inviável pensar em meter 10 gpus pequenos numa? :P

Aqui estamos a falar do segmento de topo, em soluções até 4 cores. Mas pessoalmente também duvido da possibilidade de uma "x4".

Repara que uma solução "x4" SÓ será viável se tivemos no fundo um GPU "master" com o controlador de memória + I/O e os "slaves" só com shaders e tem uma arquitectura unificada. Um exemplo comparativo seria como o GPU com os shaders/TMU e tal em si fosse um Core 2 Quad (dual die/MCM) e toda a parte comum fosse o chipset (IO/memory controler/RAMDAC/PCI-e)
 
Última edição:
Tecnicamente só vejo razão para um Gpu ser "dual core" ou "dual die" (MCM) se os cores forem diferentes e tenham funções diferentes.

Economicamente talvez faça sentido, mas a nivel de performance, dual core / dual die / dual chip (com os mesmos cores) deve ir dar mais ou menos à mesma coisa.
 
Última edição:
Porque começa ser inviável pensar em meter 10 gpus pequenos numa? :P

Aqui estamos a falar do segmento de topo, em soluções até 4 cores. Mas pessoalmente também duvido da possibilidade de uma "x4".

Repara que uma solução "x4" SÓ será viável se tivemos no fundo um GPU "master" com o controlador de memória + I/O e os "slaves" só com shaders e tem uma arquitectura unificada. Um exemplo comparativo seria como o GPU com os shaders/TMU e tal em si fosse um Core 2 Quad (dual die/MCM) e toda a parte comum fosse o chipset (IO/memory controler/RAMDAC/PCI-e)

Porque a comunicação externa entre as unidades de execução é muito mais lenta (várias ordens de magnitude) do que se estiverem no mesmo chip.
Acho que isto é mais do que óbvio, e os níveis de eficiência por mm^2 por watt de soluções Crossfire ou SLI falam por si...
E ter uma parte dessa solução como "core central" derrota o propósito da tua ideia, pois exige a criação de não um, mas pelo menos dois tipos de chips para uma só placa gráfica, "paths" eléctricos no package extremamente complexos e irrealistas para produção em massa, latências que advêm dessa distância e perdas de voltagem, etc, etc, etc.


Por alguma razão passou a era em que os chips de memória individuais eram montados numa motherboard ou em placas gráficas (eu tenho uma S3 com 1MB, e slot para meter mais 1MB). Até havia placas de som com slots de memória.
Por alguma razão a memória RAM é sempre mais rápida quando tem um bus dedicado e está no mesmo PCB, do que a memória RAM moderna que tem de comunicar com o resto do sistema pelos contactos externos de um DIMM.

Aqui dei apenas o exemplo da RAM, que é bem mais lenta do que pura lógica de execução como a que existe internamente nas GPU's, agora faz a extrapolação...
Há milhares de razões para desmistificar a noção fundamentalmente errada de que as placas gráficas podem ser construídas e desenhadas como as CPU's, quando as workloads que nelas são processadas são completamente diferentes.
 
Última edição:
Multi cores no GPU é uma necessidade de responder á Intel.
Se a Intel for minimamente bem sucedida e com os avanços no processo de fabrico que tem pode em alguns anos ser ameaça séria (48 cores, 2.0Ghz, 32nm).

O que a ATI ta a fazer e vai continuar a fazer é desenvolver tecnologias multi core para poder responder na mesma moeda a Intel, ou pelo menos nao ser apanhada com as calças na mao.
E dies monoliticas gigantescas tem os dias contados. A ati ja mostrou que quer dies pequenos e optimizados ao maximo sempre no melhor processo de fabrico. Isto nao quer dizer que va para dual-core.
Mas pode querer desenvolver um novo upgrade ao crossfire para uma nova versão + optimizada.
 
Última edição:
Multi cores no GPU é uma necessidade de responder á Intel.
Se a Intel for minimamente bem sucedida e com os avanços no processo de fabrico que tem pode em alguns anos ser ameaça séria (48 cores, 2.0Ghz, 32nm).

O que a ATI ta a fazer e vai continuar a fazer é desenvolver tecnologias multi core para poder responder na mesma moeda a Intel, ou pelo menos nao ser apanhada com as calças na mao.
E dies monoliticas gigantescas tem os dias contados. A ati ja mostrou que quer dies pequenos e optimizados ao maximo sempre no melhor processo de fabrico.

Essa é boa...
Desde quando é que o "Larrabee" passou a ser "multi-die" ?
É uma die monolítica, caso não saibas...

A diferença entre o "Larrabee" e as soluções da Nvidia e AMD é que estes desenvolveram uma ISA dedicada para gráficos, e especialmente desenhada para tal, ao passo que a Intel preferiu usar a ISA que conhece, mas que não é, de todo, optimizada para gráficos (x86).
É isso, nada mais, nada menos.
O resto do chip é quase uma "copy-cat" do G80, aliás. Basta olhar para toda a documentação que têm mostrado sobre o funcionamento do chip...
 
Última edição:
Essa é boa...
Desde quando é que o "Larrabee" passou a ser "multi-die" ?
É uma die monolítica, caso não saibas...
Monolitica por fora, mas por dentro é multicore. Nem sei onde ta escrito que serão 48 dies separadas.
Um pentium D 8xx é 2 single core colados. O Larabee sao multiplos cores colados.
 
Última edição:
Boas...

Pela tua lógica o caminho então passa na mesma, por soluções moniliticas, com milhares de unidades independentes...

A Nvidia tem seguido esse caminho, e a coisa não correu lá muito bem com o GT200...

Que solução vai inventar agora a NVIDIA para se tentar separar do karma que a persegue?...

Ensanduichar GT200b ´s? :)

Cumprimentos,

LPC
 
Monolitica por fora, mas por dentro é multicore.

Olha, bem-vindo a 2009, e a 2008, 2007, 2006, e por aí fora.
Todas as GPU's são "multi-core" por dentro.

Boas...

Pela tua lógica o caminho então passa na mesma, por soluções moniliticas, com milhares de unidades independentes...

A Nvidia tem seguido esse caminho, e a coisa não correu lá muito bem com o GT200...

Que solução vai inventar agora a NVIDIA para se tentar separar do karma que a persegue?...

Ensanduichar GT200b ´s? :)

Cumprimentos,

LPC


Desculpa, mas estás a leste...
Na era DX10 a MS optimizou o código para milhares de threads (aqui, threads são operações variadas sobre pixels individuais), e os chips da Nvidia e AMD foram desenhados em função disso.
Neste "paper" da Microsoft (página 14) sobre as novas features do DX11, eles falam em... milhões de threads em simultâneo...
 
Última edição:
Olha, bem-vindo a 2009, e a 2008, 2007, 2006, e por aí fora.
Todas as GPU's são "multi-core" por dentro.

É diferente. Num GPU tens SP´s, TMU´s, RBE´s numa determinada porpoção.
No larabee os cores sao todos iguais e simplesmente sao multiplicados. Existe o core larabee que foi feito para trabalhar com multiplos igual a ele e multiplica-se esse core.
É desenhar um single core e multiplica-lo.

Os GPU´s sao altamente paralelizados por dentro, mas é diferente da abordagem do larabee.
No entanto a abordagem dos gpu´s é muito mais inteligente que a do larabee. O larabee é o copy-paste massivo de 1 core.
No entanto é preciso ter cuidado porque a Intel pode fazer preços e tem tecnologia de fabrico que a Ati nem a nvidia chegam la perto sequer.
 
Última edição:
Olha, bem-vindo a 2009, e a 2008, 2007, 2006, e por aí fora.
Todas as GPU's são "multi-core" por dentro.




Desculpa, mas estás a leste...
Na era DX10 a MS optimizou o código para milhares de threads (aqui, threads são operações variadas sobre pixels individuais), e os chips da Nvidia e AMD foram desenhados em função disso.
Neste "paper" da Microsoft (página 14) sobre as novas features do DX11, eles falam em... milhões de threads em simultâneo...

Boas...

Não falava de Treads pois não...
Logo não era isso que queria que me dissesses...

No entanto dizendo isto de outra forma...
Que achas que a tua "nvidia" vai fazer agora, depois do fiasco que foi a geração GT200?...
O que te posso dizer é que daqui a uns meses tens fora a nova geração da ATI, e a Nvidia ainda anda a ver o que fazer...

Alias a meu ver a prova disso é as GTX285 e GTX295, ao fim de quase 6 meses aparece com uma placa que é em termos reais uma média de 5 a 10% mais rápida que a 4870x2...

E isto ainda sem o lançamento dos Catas 9.1.

Cumprimentos,

LPC
 
Back
Topo