AMD’s Fusion May Slip into Next Decade – AMD’s Chief Technologist.

Acabaste por tocar nos mesmos pontos que eu no post anterior (mas de forma resumida):

Como é que achas que o esquema Turbocache/Hypermemory acede à memória do sistema ?
Achas que possuem controladores das gráficas, além de controlar a memória dedicada, também possuem controladores de memória DDR-2 onboard, é isso ?
Wrong.
Acedem ao controlador de memória do sistema, via PCI-Express e desse bus à Northbridge (no caso da AMD, via controlador de memória integrado na CPU).
Não acredito que a AMD implemente uma solução integrada deste género sem uma ligação dedicada CPU <-> RAM, até porque vêm aí novos tipos de memórias com maior largura de banda e latências mais baixas...

A ideia de ter memória partilhada entre o CPU e a GPU utilizando ambos os mesmo controlador de memória e comunicando entre ambos em algum bus dedicado rápido parece-me interessante.

Chega ao ponto em que naturalmente ambos estarão no mesmo die e no fundo não teremos mais que um "CPU" apesar de este ter pouco a ver com os actuais CPUs

No entanto isto ainda está longe

Claro que sei, por isso é que disse isto. A ligação dedicada CPU <-> RAM seria uma ligação CPU+GPU <-> RAM, com o Fusion... no fundo é a ideia que o timber partilhou também.

Ao contrário do que aconteceu com a passagem do controlador de memória para a CPU, a passagem de uma gráfica que já dependia do controlador de memória da primeira para a die da segunda é bem menos interessante.
Muito mais eficiente seria uma solução inversa, como a MS implementou na Xbox 1 (Nvidia) e na Xbox 360 (ATI), onde o controlador de memória partilhada está na GPU, não na CPU.
Não seria uma solução "inversa" porque aqui o controlador é o mesmo e serve tanto CPU como GPU, o que acaba por ser ainda mais eficiente (nenhum fica em desvantagem em relação ao outro).

Em performance gráfica, muito mais do que a latência, o que interessa é a largura de banda em bruto, combinada com esquemas de conservação da mesma, como Z-Buffers, compressão de cor e texturas, etc.

Exacto, mais uma razão para a necessidade do tal bus dedicado com uma largura de banda superior, porque ...
para que o "Fusion" seja verdadeiramente revolucionário, também é preciso contar com evolução neste aspecto.
A largura de banda seria mais útil para a parte gráfica do CPU+GPU, a latência seria mais útil para a parte "general purpose".
 
Última edição:
Uma boa notícia !!!

AMD irons out the bumps in Dresden

CHIP MAKER AMD says it has begun outfitting the 20,000 square meters of its new Bump and Test facility in Dresden.

The firm is excited at the prospect of shifting the procedure out of the clean rooms of the two fabs on the site into a facility of its own.

Dr. Hans Deppe general manager of AMD in Dresden confessed he was, "amazed at the speed at which construction of the new clean room premises and supporting infrastructure has progressed."

amdbumpngrind.jpg


AMD's chip powerhouse in Dresden will have has some $8 billion spent on it by 2008. And the quicker it gets its two fabs on the site up and running at target capacities, the sooner it can build a new one.

Ironing out the bumps is a key step forward.

Deppe said: "We have now established a key precondition for the planned major increase of production capacity at our Dresden site by 2008."

gostei....gostei..
Fonte: http://www.theinquirer.net/default.aspx?article=37053
 
Acesso partilhado.
Todos sabemos no que dá, não é verdade ? :rolleyes:

Queres comparar as latências e largura de banda de um controlador de memoria no CPU com soluções como Hipermemory ou turbocache?

blastarr disse:
Por outro lado, pagas os componentes adicionais na CPU, quer uses a gráfica integrada ou não.
Por pagamento, não falo apenas de aspectos financeiros, mas também de consumo eléctrico e dissipação de calor.
Já para não falar que, se uma tecnologia de I/O, gráfica, de som ou de "física", se tornar obsoleta, tens de trocar tudo e não apenas o aspecto que queres melhorar.

E hj em dia já n pagas pelas 10USB/6SATA/Placa de som/ controladores de rede k vêm na bord?
E usas tudo? claro k não, mas ficava mt mais caro ires comprando td em separado, agr se isso td estive-se no CPU os custos desciam imenso já para n falar k a bord tb era mt mais barata devido a sua menor complexidade.

blastarr disse:
Os x86 "vingaram" porque a IBM escolheu o Intel 8088 para o seu primeiro computador pessoal.
O resto é história.
Até essa altura, quem dominava era a MOS e a TI, com os seus 6502 e 6800, respectivamente.

Hj em dia ves X86 em settop boxs, em SAS, controladores de rede etc, etc...
Podiam usar CPU's mais especializados, mas é mais barato agarrar num X86 e já está, a versatilidade é o seu poder.

blastarr disse:
De economia de custos passamos para trocar o computador/sistema todo e "já está".
Espantoso.
Nem é preciso ter em conta TDP's, motherboards, voltagens, sockets, etc, etc. :P

O computador passa a ser uma caixa, uma bord, umas memorias, um CPU, e poucos ou nenhuns slots de expansão.
Ai até é mt mais fácil para os fabricantes controlar os consumos, já k ha mt menos variáveis.

blastarr disse:
Eu mantenho a minha opinião, e quando sair finalmente vão dar-me razão.
Todos os sites especializados em 3D concordam. Isto serve apenas para reduzir custos no mercado ultra-low-end, sobretudo em portáteis.
Vão encontrar estas soluções nos mesmos sítios onde hoje estão os laptops a menos de 700 euros, ou nos PC's baratos da Vobis/Worten, ou seja, low-end.

Para "já" é low mid end, mas dps os CPU passa a ter duas variáveis: a de calculo e a de performance gráfica.

Assim podes ter por ex:

X2 5000+X2100 (para empresas para correr o vista etc..)
X4 5000+X2300 (laptops, casual gamer)
X8 5000+X2700 (laptops, gamers)
X8 5000+X2900 (hard core gamers)

Ou seja o mesmo CPU mas com varias opções gráficas, e com diferentes tralhas integradas, escolhe o k se adaptar as tuas necessidades.

Porque memória em slots nunca será tão rápida como memória soldada num PCB, com um bus dedicado entre elas e a GPU.
Basta ver as velocidades que se conseguem com GDDR3 e GDDR4, muito acima daquilo que se consegue na DDR2, e ligadas a buses de até 384 bit, comparados com bus de 128bit (no máximo) partilhados com o resto do sistema.

Quanto a quem respondeu sobre qual o mal de se usar partilhada, que experimente por exemplo uma 6200 Turbocache, e depois uma 6200 com bus de 128bit dedicado (como uma que eu tenho), para ver as diferenças.

Essa desculpa da DDR2 n dar? Estamos a falar de low/mid end, na altura deve ser DDR3 ou melhor perfeitamente aceitável para mid/low end.
Já para n falar k provavelmente desenvolvem um arquitectura menos dependente da largura de banda da memoria.
Ou pk n? Em vez de memoria a dual channel, quad channel, simples. :)
 
Última edição:
AMD’s Fusion On Track for 2009 – AMD’s Chief Technologist-[CORRECTED]

CORRECTION: A spokesperson for AMD said that InfoWorld web-site incorrectly quoted Phil Hester as saying that the first commercial Fusion processors emerge in late 2009. Insted, the company stressed that the first products to combine general purpose and graphics processors will be produced in early 2009. InfoWorld web-site, which incorrectly quoted Mr. Hester, has corrected its interview.
http://www.xbitlabs.com/news/cpu/display/20070116234458.html

Melhor ainda :D
E nao vai ser nada bom para a Intel nao ter nada para responder a isto, porque nessa altura a AMD vai estar 3 fabricas com uma capacidade de produçao abismal.
 
AMD’s Fusion On Track for 2009 – AMD’s Chief Technologist-[CORRECTED]


http://www.xbitlabs.com/news/cpu/display/20070116234458.html

Melhor ainda :D
E nao vai ser nada bom para a Intel nao ter nada para responder a isto, porque nessa altura a AMD vai estar 3 fabricas com uma capacidade de produçao abismal.

quem te garante que a intel não tem nada para responder? lembra-te que eles de pequenos não têm nada, e agora parece que acordaram de vez...
 
quem te garante que a intel não tem nada para responder? lembra-te que eles de pequenos não têm nada, e agora parece que acordaram de vez...



Verdade.. verdade..

mas..

Há alguma empresa com a experiência e o "know-how" equiparável à ATI ????

se sim, diz-me..
( a nividia não conta pra estas contas..pois não acredito que se alie à intel em seja o que for)
 
Sempre que a conversa resvala para Intel vs AMD ou nVidia vs ATI e o pessoal se põem a discutir sobre a incerteza do futuro... Isto mais parece uma Tertúlia Cor-de-Rosa...
 
Epá a AMD está a vender tudo o q fabrica, vao ver o top10 da newegg, desde q o c2d saiu, 90% da vezes estam sempre lá 5,6,7 cpus AMD, contra, façam as contas 5,4,3 da Intel.
Ainda há 2 meses atras atingiu a maior cota de mercado q alguma vez teve.
Este Q4 teve -27% de lucro comparado com 2005, mas n lançou nenhum produto novo. A Intel mandou cá para fora uma "obra de arte" e teve -40% de lucro comparado com 2005.
Guerras de preços são assim, boas para consumidores, menos boas para os accionistas.

A AMD vai mal? N consigo perceber pq... Nunca teve tão bem.

Há e o fusion sempre sai quando era para sair:
http://www.xtremesystems.org/forums/showthread.php?t=130727
 
Última edição:
Se mostrares noticias de chips CPU+GPU intel poe o Link.

Desde quando é que a existencia ou não de noticias sobre um dado produto é um dado adquirido para a não existencia do mesmo? :-D

Sabes quantas equipas tem a intel a trabalhar nos mais variados projectos de R&D dos quais tu sabes zero?

O segredo é a alma do negocio...
 
Desde quando é que a existencia ou não de noticias sobre um dado produto é um dado adquirido para a não existencia do mesmo? :-D
Os roadmaps servem para quê exactamente?

Sabes quantas equipas tem a intel a trabalhar nos mais variados projectos de R&D dos quais tu sabes zero?

O segredo é a alma do negocio...
E tu sabes?
Nao! Entao restringe-te ao que sabes e as noticias que se sabem. Vamos outra vez começar com advinhoes Maia?

E axas que a Intel estaria caladinha bem caladinha se tivesse produtos destes?
Viu-se o chinfrim que fez com o C2D que 4 meses antes do lançamento ja havia benches tal era a ganancia de mostrar serviço....
 
Back
Topo