AMD Fusion (CPU+GPU)

Estás sempre limitado à velocidade da memória de sistema (que é uma lesma comparada com gddr3), o verdadeiro bottleneck na teoria CPU-GPU.


mas se fores a ver mesmo bem, depois disto de juntarem GPU+CPU basta criarem uma memoria RAM que tenha velocidades grandes e um bus de sistema para acompanhar isso tudo.. o ke já teve muito mais longe.. :D mete-lhe uma largura de banda e velocidade nas memorias estupidamente enorme, digamos praí a bulirem á velocidade do CPU e puf.. chocapic!
tens uma makina sem bottlenecks :D
é ke se fores a ver a proxima evolução natural dos pc's é as memorias..
nos ultimos tempos assistimos a revoluções em:
interface grafica (PCIe)
suportes de dados (discos ENORMES / SATA)
CPU's (multi-core, HT's, 64bit, velocidades)
etc....

agora só falta mesmo optimizarem boards e criarem as mems ke acompanhem a evolução :D

(penso eu de que.. se estiver enganado alguem ke me esbofeteie com um peixe..)
 
Estás sempre limitado à velocidade da memória de sistema (que é uma lesma comparada com gddr3), o verdadeiro bottleneck na teoria CPU-GPU.

Passas de 4GB/s(k tb é partilhado para data grafica) para 8.53GB/s algo mais k suficiente para ***** grafica low/mid end.
E nessa altura tens DDR3, k n é nenhuma lesma comparada com GDDR3, como é evidente.
 
Estás sempre limitado à velocidade da memória de sistema (que é uma lesma comparada com gddr3), o verdadeiro bottleneck na teoria CPU-GPU.

E ja olhaste pro reverso da moeda. Tipo ok isso é um problema, mas que pode ser moderado atravez de uma plataforma revolucionaria estilo Torrenza.

Agora olhando pro reverso da moeda tens uma grafica integrada no CPU com uma extensão do X86 para tal. E que beneficios é que isso trás.

- Instruçoes para o GPU passam a integrar a pipeline do CPU. Nao fazes ideia do boost que se ganha aqui, mas eu diria que talvez dê uma triplicaçao no minimo da velocidada (num artigo falavam em quadriplicar).
- GPU com acesso a caches abismais.
- GPU com velocidades de relogio muito maiores.
- a comunicaçao entre o CPU e o GPU é toda feita de rajada sem percas de tempo em buses que comparados com a velocidade interna de um CPU é o mesmo que por um tartaruga ao lado de um formula 1.

Ao inicio de 2008 saem umas coisas engraçadas para portateis, PDA´s, etc.
Depois com o tempo a coisa começa a tornar-se séria e os grupos de investigaçao e verbas que a Intel e a AMD têm sao muito maiores que as da ATI e Nvidia e em poucos anos tens uma escalada de performance brutal.

Sem falar que um GPU é um conjunto de unidades funcionais e esse juntar GPU com CPU tem por base unificar as unidades funcionais para fazerem tudo e nao separar o GPU e CPU.
Nao é estilo:
- Isto é uma aplicaçao 3d vai para o lado do GPU.
- Isto é uma aplicaçao general porpuse vai para o lado do CPU.

Isto vai ser:
- Entram instruçoes que conforme o tipo de dados que tenham vao para uma unidade funcional especifica. Isto é as unidades funcionais tipicas dos GPU´s tanto podem tar a calcular os dados de um jogo com a processar dados de um programa qq de Windows e o mesmo para as unidades tipicas dos CPU´s que podem processar dados tipicas dos jogos.

Esse CPU+GPU vai ser um processador que tanto intrepreta inteiros e floats como pixeis e vertex. Ainda por cima com a tal extensao do X86 garante que vai ficar em principio uma coisa bem feita logo de raiz.

Xeira-me que a Intel ja ta a preparar o "bloco-de-notas mode" para copiar esta extensao que vai ser lançada pela AMD e ATI :D
 
Última edição:
Esse artigo que referes da quadruplicação era cheio de ideias engraçadas, mas contra GFlops não há argumentos, em 2008 aparece o low-end que é perfeitamente possível com um bom core x86, depois disso é preciso comer muita fruta para fazer os 518GFlops que a 8800 anuncia para 2006! Com soluções multi-core vai-se lá, mas as gráficas não tarda também são multi-core...não esperem que a nVidia adormeça até 2008.

Portanto pelas minhas contas, a nVidia deve levar mais de 3 anos de avanço, nos quais espeta pelo menos mais 2 gerações...
 
Última edição:
E ja olhaste pro reverso da moeda. Tipo ok isso é um problema, mas que pode ser moderado atravez de uma plataforma revolucionaria estilo Torrenza.

Agora olhando pro reverso da moeda tens uma grafica integrada no CPU com uma extensão do X86 para tal. E que beneficios é que isso trás.

- Instruçoes para o GPU passam a integrar a pipeline do CPU. Nao fazes ideia do boost que se ganha aqui, mas eu diria que talvez dê uma triplicaçao no minimo da velocidada (num artigo falavam em quadriplicar).
- GPU com acesso a caches abismais.
- GPU com velocidades de relogio muito maiores.
- a comunicaçao entre o CPU e o GPU é toda feita de rajada sem percas de tempo em buses que comparados com a velocidade interna de um CPU é o mesmo que por um tartaruga ao lado de um formula 1.

Ao inicio de 2008 saem umas coisas engraçadas para portateis, PDA´s, etc.
Depois com o tempo a coisa começa a tornar-se séria e os grupos de investigaçao e verbas que a Intel e a AMD têm sao muito maiores que as da ATI e Nvidia e em poucos anos tens uma escalada de performance brutal.

Sem falar que um GPU é um conjunto de unidades funcionais e esse juntar GPU com CPU tem por base unificar as unidades funcionais para fazerem tudo e nao separar o GPU e CPU.
Nao é estilo:
- Isto é uma aplicaçao 3d vai para o lado do GPU.
- Isto é uma aplicaçao general porpuse vai para o lado do CPU.

Isto vai ser:
- Entram instruçoes que conforme o tipo de dados que tenham vao para uma unidade funcional especifica. Isto é as unidades funcionais tipicas dos GPU´s tanto podem tar a calcular os dados de um jogo com a processar dados de um programa qq de Windows e o mesmo para as unidades tipicas dos CPU´s que podem processar dados tipicas dos jogos.

Esse CPU+GPU vai ser um processador que tanto intrepreta inteiros e floats como pixeis e vertex. Ainda por cima com a tal extensao do X86 garante que vai ficar em principio uma coisa bem feita logo de raiz.

Xeira-me que a Intel ja ta a preparar o "bloco-de-notas mode" para copiar esta extensao que vai ser lançada pela AMD e ATI :D

Bloco de notas-mode, lol.

Vai mas é pesquisar o que era o projecto "Timna" da Intel, por exemplo...
Ou o Cyrix MediaGX.
 
Última edição:
Vai mas é pesquisar o que era o projecto "Timna" da Intel, por exemplo...
Ou o Cyrix MediaGX.

Quem precisa de pesquisar aqui é outra pessoa...

Tanto o Timna como o MediaGX eram simplesmente SOCs (system-on-a-chip). O conceito SOC já existe há mais de 20 anos e consiste em integrar numa só die várias porções de lógica para fins distintos. Muitos sistemas baseados em autómatos já usam SOCs desde que existem e desde então também já foi usado em PDAs, telemóveis, set-top-boxes, GPS, TVs, leitores de DVD, etc.

O MediaGX e o Timna tinham gráficos incorporados, mas a porção de lógica que tratava dos gráficos estava separada da parte que constituía o CPU.
O projecto Fusion é algo completamente diferente dessas arquitecturas. Existem porções de lógica exclusivas para CPU e outras exclusivas para GPU, mas a maioria trata-se de memória e blocos de processamento versáteis q.b. para serem atribuídos para uma ou outra função. A eficácia deste tipo de arquitectura é completamente diferente da de um simples SOC x86.


Aliás, para saberes a diferença principal entre um SOC e o Fusion basta ver o post do qual fizeste quote a troçar (devias ao menos ter lido que assim aprendias qualquer coisinha):

DJ_PAPA disse:
Nao é estilo:
- Isto é uma aplicaçao 3d vai para o lado do GPU.
- Isto é uma aplicaçao general porpuse vai para o lado do CPU.

Isto vai ser:
- Entram instruçoes que conforme o tipo de dados que tenham vao para uma unidade funcional especifica. Isto é as unidades funcionais tipicas dos GPU´s tanto podem tar a calcular os dados de um jogo com a processar dados de um programa qq de Windows e o mesmo para as unidades tipicas dos CPU´s que podem processar dados tipicas dos jogos.
 
Quem precisa de pesquisar aqui é outra pessoa...

Tanto o Timna como o MediaGX eram simplesmente SOCs (system-on-a-chip). O conceito SOC já existe há mais de 20 anos e consiste em integrar numa só die várias porções de lógica para fins distintos. Muitos sistemas baseados em autómatos já usam SOCs desde que existem e desde então também já foi usado em PDAs, telemóveis, set-top-boxes, GPS, TVs, leitores de DVD, etc.

O MediaGX e o Timna tinham gráficos incorporados, mas a porção de lógica que tratava dos gráficos estava separada da parte que constituía o CPU.
O projecto Fusion é algo completamente diferente dessas arquitecturas. Existem porções de lógica exclusivas para CPU e outras exclusivas para GPU, mas a maioria trata-se de memória e blocos de processamento versáteis q.b. para serem atribuídos para uma ou outra função. A eficácia deste tipo de arquitectura é completamente diferente da de um simples SOC x86.


Aliás, para saberes a diferença principal entre um SOC e o Fusion basta ver o post do qual fizeste quote a troçar (devias ao menos ter lido que assim aprendias qualquer coisinha):


- Estamos a falar da integração de funções gráficas numa CPU para PC's, e tu vens com SoC para handhelds, STB's, TV's, etc.
Confundir o mercado altamente integrado e lucrativo das CE's com o mercado costumizável/upgrade-prone por natureza dos PC's é algo..., bom, não é nada.

- Depois falas da atribuição de tarefas separadas no MediaGX para gráficos e para "tarefas que constituem a CPU", seja lá o que queres dar a entender (presumo que sejam apps general purpose). Quer dizer, uma GPU não tem lógica ? O que é uma ALU, por exemplo ?



Eu entendo a tua tentativa de raciocínio.
Estás a ir na conversa de que, potencialmente, um dos muitos cores de uma CPU moderna poderia ser dotado de tarefas vectoriais específicas para processar gráficos.
Sim, isso funciona em gráficos low-end, nem eu nunca disse que não.


Mas qualquer GPU moderna discrete é "multi-core" por natureza, com dezenas de pipelines de renderização a trabalhar em paralelo, e toda a die é usada para isso mesmo, com performance a condizer.
Numa CPU terás, no máximo, uma pequena percentagem do total da die para gráficos, sob a forma de um core dedicado com memória partilhada pelo resto do processador.
Essa memória, por não ser soldada directamente no mesmo PCB, nunca poderá beneficiar das latências mais baixas, largura de banda e consequente performance da memória especializada numa gráfica discrete.

Até a chamada memória "stacked" que a Intel propôs na última IDF só serviria como uma forma de cache de grandes dimensões, porque nunca se poderia ampliar a sua capacidade sem trocar a CPU por inteiro.

GPU's integradas numa CPU nunca serão tão rápidas como as GPU's dedicadas.
Até porque desenvolver uma GPU é mais rápido e barato do que desenhar uma CPU, especialmente uma com a "bagagem" de quase trinta anos do x86.



Depois falam das "sinergias" que uma integração de pipelines gráficos com processamento de instruções x86 traria, como se de uma poção mágica se tratasse que pouparia tarefas a ambos.
O problema é que processar gráficos é um tipo de computação completamente diferente de processar AI ou correr um anti-vírus, gerir uma base de dados, web-server, etc.
É essa a razão pela qual os motores gráficos processados "por software" em CPU's x86 foram abandonados em favor da aceleração por hardware em placas 3D, via API's que acedem directamente ao hardware 3D (Glide, PowerSGL, etc), ou pelo menos, às funções que este tem suportar para funcionar com essa API (DirectX HAL, etc).


Aliás, a tendência é para que o DirectX 10 *liberte* aínda mais as CPU's de processamento relacionado com gráficos e física, para diminuir os casos de "CPU limitation" que é tão frequente em jogos DX9 com o hardware 3D high-end actual, quando combinado com CPU's x86.
Não apenas no novo modelo de drivers do Windows Vista, mas também na eficiência das gráficas.
 
Última edição pelo moderador:
Integrado no CPU acedes directamente a RAM n estás limitado pelo PCI-E, logo bem mais rapido.

E n têm k ser dual ou quad core, o espaço libertado por estes dá para introduzir um GPU low end, e n se pode compara com o nº de transístores de uma X1300 por ex. já k ha muitos componentes redundantes a ser removidos.

Sem duvida k o consumo, preço e tamanho vão muito reduzidos, tb ha o facto da bord ser menos complexa o k ajuda ainda mais a reduzir o preço.

Com o tempo vão subindo pela gama a cima, e até a ***** da bord pode ser introduzido no CPU, (a AMD já falou em introduzir o controlador PCI-E) ficando a bord só com um "grande" chip, o CPU.

Não te esqueças que com essa solução, vamos passar a ter o CPU e o GPU a lutar pela memoria ram, a não ser que tenhas lá mta claro, assim até tas safo.

Mas vão estar a lutar igualmente pela largura de banda da memoria ram, o que não acontece nas placas dedicadas.

E já para não falar, que as memorias DDR2 têm bastante menos largura de banda que as GDDR3, isto só um exemplo. E com o CPU e o GPU a usar a mm largura de banda, ainda menos vai sobrar.
 
Não te esqueças que com essa solução, vamos passar a ter o CPU e o GPU a lutar pela memoria ram, a não ser que tenhas lá mta claro, assim até tas safo.

Mas vão estar a lutar igualmente pela largura de banda da memoria ram, o que não acontece nas placas dedicadas.

E já para não falar, que as memorias DDR2 têm bastante menos largura de banda que as GDDR3, isto só um exemplo. E com o CPU e o GPU a usar a mm largura de banda, ainda menos vai sobrar.

Olha primeiro para a data de lançamento disso sff e depois imagina o tipo de plataformas e memorias que poderá haver na altura.....
Vao ter que ser plataformas novas totalmente diferentes das actuais.
 
DJ_PAPA tenho as minhas duvidas, em como daqui a 2 ou 3 anos, possamos ter memorias que não façam um sistema deste tipo ficar mais lento (basta pensar quanto tempo usamos DDR e DDR2, e as previsões para a DDR3).
e mesmo que possamos ter, qual era o sentido de ir comprar memorias ultra high end, para alimentar condignamente sistemas graficos low end? ou a ideia das memorias ultra high end também seriam para aumentar a performance da plataforma no global?

pessoalmente, acho que não faz la muito sentido estar a falar de memoria, e velocidade de memoria, uma vez que isto é para low-end, para substituir graficas integradas nos chipsets, passa-se a integrar as graficas nos CPUs... também, não é nada de extraordinario, mas, no fim de contas, a velocidade de memoria acaba por ser um factor, eu diria, quase irrelevante, pelo menos, no que a graficos diz respeito.
 
DJ_PAPA tenho as minhas duvidas, em como daqui a 2 ou 3 anos, possamos ter memorias que não façam um sistema deste tipo ficar mais lento (basta pensar quanto tempo usamos DDR e DDR2, e as previsões para a DDR3).
e mesmo que possamos ter, qual era o sentido de ir comprar memorias ultra high end, para alimentar condignamente sistemas graficos low end? ou a ideia das memorias ultra high end também seriam para aumentar a performance da plataforma no global?

pessoalmente, acho que não faz la muito sentido estar a falar de memoria, e velocidade de memoria, uma vez que isto é para low-end, para substituir graficas integradas nos chipsets, passa-se a integrar as graficas nos CPUs... também, não é nada de extraordinario, mas, no fim de contas, a velocidade de memoria acaba por ser um factor, eu diria, quase irrelevante, pelo menos, no que a graficos diz respeito.

O problema é pensares que esta plataforma vai ser igual ao modelo seguido até hoje.
Podes muito bem criar uma board com este CPU/GPU sem northbrige. Podes com o dinheiro que se poupa nisto aumentar o numero de pistas para a acesso á ram e assim aumentar o bus de acesso á memoria que juntamente com DDR3 iriam de certa forma resolver bastante problemas de largura de banda.
 
então... mas tu no athlon64 ja tens so um chipset (que, imho, é mais parecido com o que estavamos habituados a ver num southbridge que num northbridge)

aumentar as pistas para o acesso à RAM? como assim? fazer algo tipo quad channel? isso de facto aumentava-te a largura de banda, mas para usufruires de funcuinalidades desse tipo, tinhas que comprar 4 dimms...

mas lembra-te que o controlador de memoria continua a estar no cpu, pelo que não deves esperar grandes revoluções...

a menos que não esteja a perceber onde querias chegar...
 
então... mas tu no athlon64 ja tens so um chipset (que, imho, é mais parecido com o que estavamos habituados a ver num southbridge que num northbridge)

aumentar as pistas para o acesso à RAM? como assim? fazer algo tipo quad channel? isso de facto aumentava-te a largura de banda, mas para usufruires de funcuinalidades desse tipo, tinhas que comprar 4 dimms...

mas lembra-te que o controlador de memoria continua a estar no cpu, pelo que não deves esperar grandes revoluções...

a menos que não esteja a perceber onde querias chegar...

Poderias manter o dual-chanel para evitar a situaçao dos 4 dims e aumentar dos actuais 2x64bits (penso eu que é o actual?) para 2x 128bits. Isto iria disparar os custos mas com a remoçao do northbrige e sem a necessidade de um chip extra a processar graficos esses mesmos custos tb seriam reduzidos em grande parte.
 
não sou nenhum entendido na matéria mais técnica, mas concordo com a opinião do DJ_PAPA.

parece-me que a curto prazo (2 anos) isto ainda não deverá fazer concorrência ao mercado "high/middle end" de gráficas, naturalmente.
acho muito viável no entanto, que dê um grande impulso aos physics graphics. aquela situação em que tinhamos uma gráfica exclusivamente para efeitos físicos e outra para texturas, pode muito bem ser reinventada. a mim parece bastante viável.

a longo prazo, e se isto resultar, vejo as gráficas cada vez mais como auxiliares e já não tanto como responsaveis supremas de toda a parte gráfica dos pc's.
 
Não te esqueças que com essa solução, vamos passar a ter o CPU e o GPU a lutar pela memoria ram, a não ser que tenhas lá mta claro, assim até tas safo.

Mas vão estar a lutar igualmente pela largura de banda da memoria ram, o que não acontece nas placas dedicadas.

E já para não falar, que as memorias DDR2 têm bastante menos largura de banda que as GDDR3, isto só um exemplo. E com o CPU e o GPU a usar a mm largura de banda, ainda menos vai sobrar.

Segundo as previsões em 2009 DDR3 já vai ter um preço baixo estabilizado, como tal deve ser com esse tipo de memoria k o Fusion vai sair.
Quanto à largura de banda vai ser lijeiramente pior k as GDDR3, k neste momento equipa mid/high end.
Ora axo k serve perfeitamente para uma low end de aki a 2/3 anos.

Uma das vantagens de estar integrado no CPU é k vai ter uma frequencia muito mais alta do k numa solução on-bord neste momento, provavelmente um GPU com metade dos pipes no Fusion faz mais k uma on-bord neste momento.
 
ma reparem na miniaturização que as coisas podem levar....

os HTPC's, PDA's e portáteis(qu enão para edição gráfica nem jogos) vão ganhar muito....


ora vejamos, o que vai ao ar...

gráfica a menos = menos consumo, menos espaço ocupado, menos aquecimento, isto em troca de alguma performance gráfica, que provavelmente num vai ser assim tanta quanto se pensa..

o espaço aproveitado pode ser para por exemplo uma bateria com mais células... portáteis com 8 a 10 de bateria.... here i come....


Esta é grande vantagem, um empresário num precisa de tanta gráfica quanto isso!!!! eu sou estudante e num preciso de mais gráfica que a que tenho no meu, uma Gf5200 com 64mb dedicados.
 
AMD Announces "Fusion" CPU/GPU Program

The future of CPU/GPU computing

With the completion of AMD’s acquisition of ATI, AMD has announced its working on new CPU/GPU silicon that integrates the CPU and graphics processor into a single unit. The upcoming silicon is currently codenamed Fusion and is expected in the late 2008 or early 2009 time frame. AMD claims Fusion will bring:

AMD intends to design Fusion processors to provide step-function increases in performance-per-watt relative to today’s CPU-only architectures, and to provide the best customer experience in a world increasingly reliant upon 3D graphics, digital media and high-performance computing. With Fusion processors, AMD will continue to promote an open platform and encourage companies throughout the ecosystem to create innovative new co-processing solutions aimed at further optimizing specific workloads. AMD-powered Fusion platforms will continue to fully support high-end discrete graphics, physics accelerators, and other PCI Express-based solutions to meet the ever-increasing needs of the most demanding enthusiast end-users.

AMD expects to integrate Fusion for all its product categories including laptops, desktops, workstation, servers and consumer electronics products. Judging by the inclusion of PCI Express support, it would appear the integrated GPU is more of a value solution—similar to Intel’s cancelled Timna processor. It is unknown if AMD will retain the current Athlon and Opteron names with the launch of Fusion. This isn't too surprising as AMD and ATI previously promised unified product development including vague mentions of hybrid CPU and GPU products. AMD also previously announced its Torrenza open architecture as well.

In addition to Fusion, AMD expects to ship integrated platforms with ATI chipsets in 2007. The platforms are expected empower commercial clients, notebooks, gaming and media computing. AMD expects users will benefit from greater battery life on the next-generation Turion platforms and greater enhancements with AMD Live! systems. DailyTech previously reported on ATI's chipset roadmap which outlined various integrated graphics and enthusiast products.

With the development of Fusion and upcoming integrated AMD platforms, it is unknown what will happen to NVIDIA’s chipset business, which currently relies mainly on AMD chipset sales.

É oficial!!

http://www.dailytech.com/article.aspx?newsid=4696
 
Última edição pelo moderador:
Olha primeiro para a data de lançamento disso sff e depois imagina o tipo de plataformas e memorias que poderá haver na altura.....
Vao ter que ser plataformas novas totalmente diferentes das actuais.

As memorias GDDR andam sempre umas 2/3 gerações á frente da DDR.

Não é novidade para ninguém.

Poderias manter o dual-chanel para evitar a situaçao dos 4 dims e aumentar dos actuais 2x64bits (penso eu que é o actual?) para 2x 128bits. Isto iria disparar os custos mas com a remoçao do northbrige e sem a necessidade de um chip extra a processar graficos esses mesmos custos tb seriam reduzidos em grande parte.

Agora imagina que nas placas dedicadas já vão passar provavelmente pros 512 Bits, e com velocidades de 2Ghz ou superior que são praticamente o dobro do que se encontra nas DDR.

Isso dá quantas vezes mais rapido que as DDR? 8 Vezes? mesmo que passem para 128 Bits, e isso é apenas uma suposição tua, continuam a ser 4 vezes mais lentas. Já para não falar que mm assim, o CPU e o GPU vão tar a lutar por essa largura. Enquanto no sistema actual, ambos têm as sua largura de banda só pra eles.
 
Última edição pelo moderador:
Back
Topo