AMD Fusion (CPU+GPU)

As memorias GDDR andam sempre umas 2/3 gerações á frente da DDR.

Agora imagina que nas placas dedicadas já vão passar provavelmente pros 512 Bits, e com velocidades de 2Ghz ou superior que são praticamente o dobro do que se encontra nas DDR.

Isso dá quantas vezes mais rapido que as DDR? 8 Vezes? mesmo que passem para 128 Bits, e isso é apenas uma suposição tua, continuam a ser 4 vezes mais lentas. Já para não falar que mm assim, o CPU e o GPU vão tar a lutar por essa largura. Enquanto no sistema actual, ambos têm as sua largura de banda só pra eles.

Andam? n low end não.
Olha tenho aki a frente uma 9250SE nova e sabes qual a velocidade da ram?
128MB DDR-400

Como tal mesmo k de aki a 2 a memoria de sistema seja DDR3 acredita k no mercado ainda vão haver low ends com memorias mais lentas.
 
Andam? n low end não.
Olha tenho aki a frente uma 9250SE nova e sabes qual a velocidade da ram?
128MB DDR-400

Como tal mesmo k de aki a 2 a memoria de sistema seja DDR3 acredita k no mercado ainda vão haver low ends com memorias mais lentas.


Eu tava a falar para possíveis High Ends no futuro. As as memorias DDR evoluem mesmo mto, a um nível mto rapido, ou não têm hipotesses. E temos que ter em conta que as memorias GDDR também estão constantemente a evoluir, mais rápido que as DDR.

Primeiro existe o problema do CPU e o GPU estarem a lutar pela mesma largura de banda.

Segundo a GDDR tem uma largura de banda muito superior ás DDR. Mas mto superior mesmo, basta ver os numeros.

Terceiro, sabe-se mto bem que a largura de banda é um dos aspectos que faz as placas serem mais capazes. Mto mais capazes.
 
Isso dá quantas vezes mais rapido que as DDR? 8 Vezes? mesmo que passem para 128 Bits, e isso é apenas uma suposição tua, continuam a ser 4 vezes mais lentas. Já para não falar que mm assim, o CPU e o GPU vão tar a lutar por essa largura. Enquanto no sistema actual, ambos têm as sua largura de banda só pra eles.

Sao 4x mais lentas em largura de banda, mas sao 4x mais rapidas por tarem integradas na pipeline do CPU. E agora em que é que ficamos? :lol:

E agora tb tens as graficas no bus PCI-E que comparando em estando integrado no CPU com ligação directa á ram tem muito, mas mesmo muito menos latencia.

O futuro logo se vê, mas é se duvida um boa noticia esta. Um CPU/GPU juntamente com uns co-processadores da plataforma Torrenza arrazavam por completo em poder de calculo. A largura de banda era um problema a resolver e a dar a volta.
 
Sao 4x mais lentas em largura de banda, mas sao 4x mais rapidas por tarem integradas na pipeline do CPU. E agora em que é que ficamos? :lol:

E agora tb tens as graficas no bus PCI-E que comparando em estando integrado no CPU com ligação directa á ram tem muito, mas mesmo muito menos latencia.

O futuro logo se vê, mas é se duvida um boa noticia esta. Um CPU/GPU juntamente com uns co-processadores da plataforma Torrenza arrazavam por completo em poder de calculo. A largura de banda era um problema a resolver e a dar a volta.


Claro, enquanto nas placas gráficas já caminham para os 100GB/s de largura de banda, nas DDR nem aos 10GB/s. Uma diferença, assim, um bocadinho pequena apenas...
DDR2 800 tem 6.4GB/s de largura, com CPU e GPU a comer metade cada um... sobrava 3.2GB/s para cada um... Nem é limitativo nem nada...
 
Sao 4x mais lentas em largura de banda, mas sao 4x mais rapidas por tarem integradas na pipeline do CPU. E agora em que é que ficamos? :lol:

Então se estiverem integradas no pipeline da CPU, isto significa que esta terá muito mais estágios (como os Pentium 4) e que, portanto, a latência e as cache misses serão mais frequentes.
Ou seja, serão menos eficientes por cada ciclo de relógio do que uma CPU de poucos estágios, com um pipeline curto (A64 X2, Core 2 Duo, etc).

E agora ?
 
Então se estiverem integradas no pipeline da CPU, isto significa que esta terá muito mais estágios (como os Pentium 4) e que, portanto, a latência e as cache misses serão mais frequentes.
Ou seja, serão menos eficientes por cada ciclo de relógio do que uma CPU de poucos estágios, com um pipeline curto (A64 X2, Core 2 Duo, etc).

E agora ?

Completamente errado. O adicionar de novas instruçoes X86 nao implica adicionar mais estagios á pipeline.
As unidades de calculo passam a ser reformuladas e por exemplo a unidade floting point pode ser integrada com unidades especificas das graficas. E isto pode ser generalisado a muitas outras unidades.

Se no final se adicionarem 3 estagios por exemplo acaba sempre por compensar pq as novas unidades que vao entrar vao ser muito mais rapidas nos calculos que vao efectuar.

Isto é uma questao meramente de arquitectura e que nao vale a pena tar a ir por ai, pq basicamente é tar a inventar á parva ja que nao se faz a minima ideia de como aquilo vai ser implementado ou feito.
 
Completamente errado. O adicionar de novas instruçoes X86 nao implica adicionar mais estagios á pipeline.
As unidades de calculo passam a ser reformuladas e por exemplo a unidade floting point pode ser integrada com unidades especificas das graficas. E isto pode ser generalisado a muitas outras unidades.

Se no final se adicionarem 3 estagios por exemplo acaba sempre por compensar pq as novas unidades que vao entrar vao ser muito mais rapidas nos calculos que vao efectuar.

Isto é uma questao meramente de arquitectura e que nao vale a pena tar a ir por ai, pq basicamente é tar a inventar á parva ja que nao se faz a minima ideia de como aquilo vai ser implementado ou feito.

Não, tu é que estás completamente errado.

Não estamos a falar de "meia dúzia de instruções x86" extra adicionadas a uma CPU e já está.
Estamos a falar de uma API DirectX completa, cujas GPU's usam register files que nem remotamente se parecem com CPU's X86.
Estamos a falar de GPU's estritamente in-order.
Isso é algo que não se pode integrar de um dia para o outro em CPU's Out-of-Order e esperar performance competitiva.



Cada vez mais acho que aqueles que julgam que esta integração será feita por motivos de performance e sinergias de processamento vão ficar desapontados com esta solução, quando finalmente chegar ao mercado, daqui por dois ou três anos.
Isto não é mais do que uma razão económica, uma forma de acabar de vez com as northbridges dos chipsets.

Estes, por uma questão de flexibilidade, tornar-se-ão em Southbridges dedicadas, com acesso às mais recentes tecnologias de I/O, som, etc, cujos ciclos são mais curtos/rápidos do que o da vida de uma arquitectura de CPU's.


Repito, a integração CPU+GPU nada tem a ver com performance, é uma pura razão economicista.
É uma maneira de integrar aquilo que nos SoC's para handhelds já se faz há muito, com vista ao crescimento no mercado dos notebooks.
 
Última edição:
Acho piada o DJ_PAPA dizer que se adicionam unidades gráficas (?) a um CPU, fica 4 vezes mais rápido e no fim remata dizendo que não vale a pena inventar porque ninguém sabe como vai ser implementado!

Camarada, explicas como vais ter high-end integrado num CPU? Só se vier uma tecnologia alienigena que permita fazer mais de 518GFlops num CPU desktop, mesmo com 8 núcleos um Opteron faz no máximo teóricamente 300GFlops, ficam a faltar 200 para igualar uma 8800GTX que em 2008 deve ser mid-end. Ou então inventa-se outra maneira de fazer gráficos, podes sugerir que nova maneira é essa?

Se calhar implica espetar um trambolho de 600 milhões de transistores num package que caiba num socket não?
 
Última edição:
Acho piada o DJ_PAPA dizer que se adicionam unidades gráficas (?) a um CPU, fica 4 vezes mais rápido e no fim remata dizendo que não vale a pena inventar porque ninguém sabe como vai ser implementado!

Camarada, explicas como vais ter high-end integrado num CPU? Só se vier uma tecnologia alienigena que permita fazer mais de 518GFlops num CPU desktop, mesmo com 8 núcleos um Opteron faz no máximo teóricamente 300GFlops, ficam a faltar 200 para igualar uma 8800GTX que em 2008 deve ser mid-end. Ou então inventa-se outra maneira de fazer gráficos, podes sugerir que nova maneira é essa?
Essa tecnologia aligena pode ser um mero LPGA ou ate mesmo um Cell numa plataforma Torrenza e num socket á parte que te adicionaria um poder de calculo ate superior a esse. Isto num socket á parte. Se for integrado no CPU aceleram-se as coisas mesmo muito.


Se calhar implica espetar um trambolho de 600 milhões de transistores num package que caiba num socket não?
Se tivesses lido ou informado minimamente perceberias que este conceito nao é somar em uma R600 e espetalhar-lhe ao lado um K8L e dizer temos um CPU/GPU de 1biliao de transistores.
Podes eliminar muitas unidades no lado do GPU e/ou acrescentar outras. O conceito é uniformizar....

Pa isto começa com um pequeno CPU/GPU para low-end e depois as coisas vao acelerando. Se axas que daqui a 5 anos vai estar tudo na mesma, vais para o conjunto de pessoas que se agarram a esses conceitos tradicionais e depois vêm no futuro ver coisas que nunca imaginaram.

Pá, tudo começa em baixo e so assim se consegue ir para cima. Agora tarem ja a supor 8800GTX num CPU é um bocado pra frentex demais.
Agora se a Intel e a AMD começam a mexer os cordelinhos neste sentido.... com o tempo e dinheiro eles metem-te a 8800gtx num bolso.

Dá-lhe tempo ao tempo. Prefiro acreditar nestes projectos altamente inovadores que nas "Maias" ca do nosso forum :D
 
Eu dou tempo, acho é que andamos com pressa, ainda este ano (ou o ano passado) a Intel foi apanhada na previsão dos 10Ghz, o x86 tinha os dias contados em 1996, era suposto haver armazenamento holográfico daqui a 3 anos, discos flash com petabytes em 2008, carros voadores em 2001, loiras com cérebro em 2006, etc.

A teoria do socket extra parece-me válida, semelhante aquela coisa que a nVidia tem nos portáteis. Mas implica largura de banda aos pontapés...enfim vamos ver. Acho no entanto mais provavel as loiras com cérebro em 2008.
 
Essa tecnologia aligena pode ser um mero LPGA ou ate mesmo um Cell numa plataforma Torrenza e num socket á parte que te adicionaria um poder de calculo ate superior a esse. Isto num socket á parte. Se for integrado no CPU aceleram-se as coisas mesmo muito.

Pois, e foi por estas e por outras que o Cell acabou colocado de parte como GPU, pois era mesmo mau nisso. Não basta ser um monstro FP, é preciso ter o instruction set adequado, senão...
Daí a entrada do RSX, uma GPU dedicada e muito mais rápida nessas tarefas.


Se tivesses lido ou informado minimamente perceberias que este conceito nao é somar em uma R600 e espetalhar-lhe ao lado um K8L e dizer temos um CPU/GPU de 1biliao de transistores.
Podes eliminar muitas unidades no lado do GPU e/ou acrescentar outras. O conceito é uniformizar....

Não é possível uniformizar as duas tarefas, da mesma maneira que não podes uniformizar uma laranja até ficar igual a uma maçã.
São problemas matemáticos completamente distintos, e chips cujas unidades de execução estão preparadas para a excelência nas tarefas a que se destinam, não em ter suporte a uma coisa só por ter, e depois comprometer no bottom-line mais básico.


Pa isto começa com um pequeno CPU/GPU para low-end e depois as coisas vao acelerando. Se axas que daqui a 5 anos vai estar tudo na mesma, vais para o conjunto de pessoas que se agarram a esses conceitos tradicionais e depois vêm no futuro ver coisas que nunca imaginaram.

Pá, tudo começa em baixo e so assim se consegue ir para cima. Agora tarem ja a supor 8800GTX num CPU é um bocado pra frentex demais.
Agora se a Intel e a AMD começam a mexer os cordelinhos neste sentido.... com o tempo e dinheiro eles metem-te a 8800gtx num bolso.

Dá-lhe tempo ao tempo. Prefiro acreditar nestes projectos altamente inovadores que nas "Maias" ca do nosso forum :D

Então, quando a AMD e a Intel conseguirem igualar uma Geforce 8800 GTX dentro de uma CPU x86 (daqui por largos anos, atendendo ao que conseguiram até agora nas gráficas integradas...), estás a contar que a Nvidia aínda esteja a usar estas mesmas gráficas, é isso ? :-D

É como se a Nvidia tivesse parado na Geforce 3, para que a Intel, 6 anos depois, conseguisse igualar a performance com uma GMA X3000 (algo que não consegue, nem por sombras), é isso ?
 
Esqueçes-te que a Nivida vai tomar o mesmo caminho que a AMD e Intel só que em sentido con´trário...

tás-te a esqueçer de uma coisa muito importante Blastarr !!!!

o Low end e o Mid-range são ou não são um mercado muito apetecível e lucrativo ??
o mercado portátil é ou não um mercado de biliões ??
e gadjets e pda's ??


achas que a nvidia matendo-se rainha no topo da performance mas não vendendo nos outros segmentos se safa ???

a partir do momento em que a AMD e a Intel tenham um CPU/GPU ao nível do low end e já a roçar o mid-range.. já a Nvida tá entalada no segmento inferiror... e pc's tipo dell's e hp's , são capazes de meter cpu's fusion em vez de low end's da nvidia..que aconteçe então ??

temos a nvidia com uma Geforce 10.000 GTX mas que vende pouquinho low-end, não vende Gforce's Go e no mid-end tá igualada... que áchas que irá aconteçerá nvidia ?? mesmo com uma g´rafica de topo 20 vezes melhor que o fusion pode falir num instante.. As emp+resas também dependem muitos das vendas em massa dos mercados portátil e low end.. essenciais para a sua sobrevivência...

portanto a Nvidia tá condenada!!! condenada!! a não ser.. e eles sabem disso, tente entrar no merecado CPU.. e produza low end's..para tentar manter esse mercado.. porque basta perder esse mercado e chapeu ...

Vocês se pensassem um bocadinho pra frente e nas verdadeiras implicações destas notícias chegariam à mesma conclusão que eu cheguei..!! se a Nvidia se mantiver apenas com o negócio das chipsets e gráficas vai afundar-se..
 
Esqueçes-te que a Nivida vai tomar o mesmo caminho que a AMD e Intel só que em sentido con´trário...

tás-te a esqueçer de uma coisa muito importante Blastarr !!!!

o Low end e o Mid-range são ou não são um mercado muito apetecível e lucrativo ??
o mercado portátil é ou não um mercado de biliões ??
e gadjets e pda's ??


achas que a nvidia matendo-se rainha no topo da performance mas não vendendo nos outros segmentos se safa ???

a partir do momento em que a AMD e a Intel tenham um CPU/GPU ao nível do low end e já a roçar o mid-range.. já a Nvida tá entalada no segmento inferiror... e pc's tipo dell's e hp's , são capazes de meter cpu's fusion em vez de low end's da nvidia..que aconteçe então ??

temos a nvidia com uma Geforce 10.000 GTX mas que vende pouquinho low-end, não vende Gforce's Go e no mid-end tá igualada... que áchas que irá aconteçerá nvidia ?? mesmo com uma g´rafica de topo 20 vezes melhor que o fusion pode falir num instante.. As emp+resas também dependem muitos das vendas em massa dos mercados portátil e low end.. essenciais para a sua sobrevivência...

portanto a Nvidia tá condenada!!! condenada!! a não ser.. e eles sabem disso, tente entrar no merecado CPU.. e produza low end's..para tentar manter esse mercado.. porque basta perder esse mercado e chapeu ...

Vocês se pensassem um bocadinho pra frente e nas verdadeiras implicações destas notícias chegariam à mesma conclusão que eu cheguei..!! se a Nvidia se mantiver apenas com o negócio das chipsets e gráficas vai afundar-se..

O mercado dos chipsets representa menos de 30% dos lucros da Nvidia.
Destes, apenas uma pequena percentagem deriva dos chipsets com gráficos integrados (Geforce/Nforce 6150 e 6100).


A AMD é que viu que a ATI estava à distância tangível de aquisição, pois estava a perder quota de mercado precisamente na sua parte mais crucial, onde as margens de lucro são (muito) maiores, o discrete desktop.


Os mercados financeiros já há muito que estavam a notar essa tendência, daí o valor de mercado da Nvidia ser o dobro do da ATI na altura da compra, e estar neste momento num nível mais elevado do que o da própria AMD (que teve de se endividar fortemente para comprar a ATI em primeiro lugar, é preciso não esquecer).

Os mercados financeiros não davam tanto valor às acções da Nvidia (sobretudo desde que a ATI desapareceu como entidade independente) se não perspectivassem um futuro risonho de elevadas margens de lucro por produto, em tudo semelhante ao que a Apple consegue no seu próprio mercado.
Os segmentos high-end de tudo, desde carros, a casas, produtos de electrónica e componentes PC têm a tendência para passar relativamente incólumes às crises de consumo, ao contrário do que acontece com o mainstream e low-end, que são adquiridos por clientes com menor poder de compra.


Porque é que achas que a Nvidia aposta forte nos chipsets para AMD e Intel no high-end, e nem se dá ao trabalho de criar IGP's para Intel (havia um C60 há mais de um ano, que foi cancelado) ?
Só vais notar aínda mais essa tendência com os Nforce 680i e 680a, daqui a menos de uma semana.
 
Quanto éque vale o mercado Portátil e low-end para a Nvidia ??? sem estar a falar em chipsets'.. falendo de gráficas.. Quanto valerá ??

talvez uns 30 % do lucro da Nvidia..

e achas que se eliminássemos esses 30% a Nvidia ia sobreviver ???
Lançando a AMD e a Intel, uma solução nestes mewrcados tão boa como a Nvidia, os greandes assenbladores vão preferir, um all-in-one ou peças separadas ???

é o fim da Nvidia no low end e no mercado portátil!!! acredita..
 
Quanto éque vale o mercado Portátil e low-end para a Nvidia ??? sem estar a falar em chipsets'.. falendo de gráficas.. Quanto valerá ??

talvez uns 30 % do lucro da Nvidia..

e achas que se eliminássemos esses 30% a Nvidia ia sobreviver ???
Lançando a AMD e a Intel, uma solução nestes mewrcados tão boa como a Nvidia, os greandes assenbladores vão preferir, um all-in-one ou peças separadas ???

é o fim da Nvidia no low end e no mercado portátil!!! acredita..

Mercado portátil e low-end ?
Lol.
Quantos portáteis conheces com 6150/6100 ? (existem, mas são raríssimos).
Guess what, a Nvidia aínda está viva, não está ?



Já agora, para não continuares a dizer coisas da boca para fora sem saber nºs, aqui tens:

Handhelds, duplicou o volume de vendas de um ano para o outro:
- http://yahoo.reuters.com/news/artic..._ 2006-10-25_00-32-57_N24256144&pageNumber=1

Notebooks, mesmo só com GPU's discrete (a percentagem de 6150/6100 mobile é minúscula, really), continua a ganhar terreno à ATI e à Intel, passando de 25% no Q2'06, para 36.7% no Q3'06, uma subida de 11.7% em apenas 3 meses:

In the discrete mobile segment, ATI saw shipments decline on a quarterly basis while Nvidia saw shipments increase sequentially. Nvidia grew discrete mobile segment share from 25.0% in Q1 2006 to 36.7% in Q2 2006.

fonte: xbitlabs


Ou seja, nos mercados mais lucrativos das GPU's autónomas para PC's desktop e notebooks, a Nvidia tem vindo é a ganhar terreno, não o contrário.
Então nos handhelds e leitores de música, com design-wins para a Motorola (RAZR), Apple (iPhone, vPod), SonyEricsson e Sony (PSP 2), o futuro é cada vez mais risonho.
Ah, e aínda me ía esquecendo do negócio dos chipsets de motherboards de topo, das placas gráficas profissionais QuadroFX e da Sony PS3.
 
Mas tu não podes ser "short-view" nisto.. dizes que tá por enquanto tá bem, e até se recomenda...tudo bem..

mas em TI, isto muda do dia pra noite..

O mercado portátil tem tendência pra crescer ano após ano, e cada vez mais representará mais lucro pra nvidia.. e o mercado handheld também..

precisamente onde o fusion vai atacar em mais força...

Quer dizer, quando se trata da intel, a visão de longo alcançe de mercado e tal, preparar o futuro e tal, achas bem.. com a Nvidia pareçe que tás "contente e estático" com o mercado actual da empresa...

ainda bem que a Nvidia não partilha da mesma opinião que tu.. e em vez de se deixar quieta, é começar mas é a bulir em x86, para ser ela própria a fornecer ao mercado cpu's low-end com gráficas embutidas e não a AMD ou a Intel..pois eles (nvidia) vêm claramente que esse mercado vai-lhes ser retirado se não fizerem nada...

Dizes ah e tal, não é com GMA's que lá vão, pois não, mas isso eram soluções de quem nem tava a ligar muito á coisa... agora que eles vão apostar mesmo a sério, já não é brincadeira... e não são igp's.. são cpu's/gpu... porque de igp's percebe a nvidia e assim pode defender-se...e do cpu/gpu percebe alguma coisa ??

abre os olhos porque a Nvidia já os abriu..
 
Os mercados financeiros já há muito que estavam a notar essa tendência, daí o valor de mercado da Nvidia ser o dobro do da ATI na altura da compra, e estar neste momento num nível mais elevado do que o da própria AMD (que teve de se endividar fortemente para comprar a ATI em primeiro lugar, é preciso não esquecer).

Os mercados financeiros não davam tanto valor às acções da Nvidia (sobretudo desde que a ATI desapareceu como entidade independente) se não perspectivassem um futuro risonho de elevadas margens de lucro por produto, em tudo semelhante ao que a Apple consegue no seu próprio mercado.

Blastarr, estás a cometer o erro em comparar empresas pelo valor da cotação nos mercados de capitais. O facto de nVidia possuir um valor de cotação superior á ATI não significa que esta seja uma empresa maior e com mais valor financeiro (apesar de que sabemos que a nVidia tem mais dimensão relativamente á ATI). A cotação deriva de várias factores, um dos mais importantes é o nº de acções disperso no mercado financeiro, as empresas não necessitam obrigatóriamente de dispersar o seu valor no mercado em acções na totalidade, pode ser parcial. Existem também os aumentos de capital da empresa que obriga por vezes a grandes ajustamentos no preço da acção, entre outras...

Existem vários exemplos na bolsa nacional (PSI-20) do que eu acima refiro, vejam por exemplo o caso do BCP que é hoje o maior banco privado português e que está cotado a 2,55€ por acção, comparativamente aos seus rivais BES (12,40€) e BPI (5,94€) de menor dimensão e menor numero de clientes. Existem vários exemplos...
 
Os mercados financeiros já há muito que estavam a notar essa tendência, daí o valor de mercado da Nvidia ser o dobro do da ATI na altura da compra, e estar neste momento num nível mais elevado do que o da própria AMD (que teve de se endividar fortemente para comprar a ATI em primeiro lugar, é preciso não esquecer).

A partir do momento que se lêm coisas deste genero nem vale a pena ler mais.
Esses valores estao na tread da compra da ATI e ja foram repetidos ai diversas vezes.
A diferença na altura da compra do market cap entre a ATI e a Nvidia era de cerca de 1.5B de dolares. Agora o dobro? É que é.... enfim.

Nao percebo o que se ganha com tais mentiras mas ja agora pedia que o forum tivesse alguem que realmente fosse ver os numeros para nao se cair no erro de termos um forum xeio de desinformaçao para certas partes.

Btw isto nao é um forum de economia e muito menos de expeculaçao bolsista e muito menos ainda isto tem relevancia alguma para o titulo da tread.
 
independentemente de ser mentira ou ser verdade, que raio é que estes assuntos de mercado têm a ver com a thread? (a pergunta é retórica)

começa a ser recorrente falar sobre asuntos da bolsa por aqui...
aqui quer-se falar do AMD Fusion, e eu ja estou a ver aqui o pessoal a falar (mais uma vez, diga-se) de avaliação da nVidia e da ATi...
quem quer saber alguma coisa do AMD Fusion quer la saber disso...

eh pa, querem falar da nVidia falem, para comparações, mas por favor não me "offtopiquem" isto tudo.
se têm assunto para outra thread, força criem uma thread nova...

Vamos la continuar, ONTOPIC.
 
CPU and GPU Merge – Biggest Microprocessor Evolution Since x86-64, Says AMD.
Phil Hester: Microprocessors Will Bring Supercomputer Performance to The Desktop


Phil Hester, chief technology officer at Advanced Micro Devices, the world’s second largest maker of central processing units, said at a conference that the integration of graphics processing units (GPUs) into central processing units will allow personal computers to achieve performance of supercomputers eventually.

“Get ready for round two of the "attack of the killer micros. By combining graphics processing unit (GPU) and CPU functions in heterogeneous cores, microprocessors will bring supercomputer performance to the desktop,” said Phil Hester, in a keynote speech at the International Conference on Computer-Aided Design (ICCAD) in San Jose, California, reports EETimes web-site.

The chief technologist at AMD believes that in order to achieve tremendous computing power on the desktop, central processing units (CPUs) should start utilizing heterogeneous multi-core design, where each of the cores will be able to perform certain types of tasks very rapidly. Given that theoretical peak power of modern GPUs is much higher than that of CPUs, it is natural to built in GPUs into CPUs to increase performance.

“A step increase in microprocessor performance per watt per dollar is needed. But simply adding more homogeneous CPU cores to a baseline architecture is not good enough. The solution is to adopt a heterogeneous architecture with GPU/CPU silicon-level integration,
” Mr. Hester is reported to have said.

Mr. Hester also called integration of graphics processing engines into AMD’s chips as the “biggest microprocessor evolution” since the introduction of x86-64 concept back in 1999. Advanced Micro Devices proposed 64-bit extensions to x86 architecture seven years ago and has managed to transform the x86-64 technology into an industrial standard since then, which stresses how significant the idea to combine CPU and GPU is.

However, according to Mr. Hester, there are two significant design challenges in developing heterogeneous architectures (that combine CPU and GPU) – power management and memory hierarchy.
http://www.xbitlabs.com/news/cpu/display/20061107081152.html

Get-Ready para full power daqui a uns anos. E nao se preocupem que eles estao bem cientes do desafio no que toca á parte do calor/consumo e ao problema da hierarquia de memoria.
Espero que isto va mesmo para a frente em full strenght.
 
Back
Topo