CPU-GPU em 2008 (45nm) diz a AMD...

blackspawn

Power Member
Chief technology officer of Advanced Micro Devices said in an interview that it is looking forward to create a chip with integrated graphics core in 2008, once proven 45nm process technology is there.

“Integration of the CPU and the GPU. Assuming the transaction closes on time, we would target a merged design in the 45nm time frame,” said Phil Hester of AMD in an interview with Cnet News.com.

...

Mr. Hester explained that the trends in the development of graphics processors increased programmability: “We’ve crossed the point where the GPU can do real programs of a significant size,” he said. He then re-iterated the point made earlier by another AMD representative in an interview with AMD and said that the first CPU-GPU will come around 2008.

“It may seem like 2008 is a long way away, but that’s actually a major design cycle,” Mr. Hester said.

Fonte: X-bit Labs

Se a intel seguir com os seus planos de tambem fabricar um CPU-GPU o que é que isto significará para a Nvidia? Será que os GPUs dos CPU-GPU serão os equivalentes aos integrados de hoje em dia? (em termos de performance) ou isto é o fim das placas stand-alone?

Comentem ;)
 
Uma CPU+GPU nunca será alternativa a uma GPU dedicada.
São duas formas de computação completamente diferentes, e o que se está a verificar aqui é a simples transposição de mais um componente básico (o chamado IGP, das motherboards) para a CPU, tal como o controlador de memória foi integrado nos AMD64.
A memória tem de ser partilhada, não tem memória dedicada, o controlador de memória tem de ser partilhado, há um budget limitado de transístores para tarefas gráficas dentro da globalidade do chip, etc.
Demasiadas limitações.


Basicamente, serve para "descomplicar" os chipsets de motherboards, mas não é, de forma alguma, um concorrente de uma GPU dedicada mainstream/high-end.
Nunca será.
Ninguém diria que o controlador integrado nos AMD64 deixou os fabricantes de chipsets de motherboards sem negócio.
Antes pelo contrário.

Se recuarem uns anos largos, verificarão que nos primeiros tempos dos PC's desktop não havia placas gráficas per se.
O que existía eram placas que providenciavam interfaces para monitores, etc, mas a computação gráfica era feita pela CPU, sem eficiência.
 
Última edição:
Facto histórico: todos aqueles que disseram "nunca" num assunto relativamente a tecnologia, arrependeram-se mais tarde.
Podes espernear à vontade, não deixa de ser um facto histórico.

Não estamos a discutir factos hipotéticos, estamos a discutir factos correntes e do futuro próximo, tangível.
Bolas de Cristal há muitas...
 
Se durante algum tempo tiveste as Voodoo's e outras que apenas eram placas aceleradoras (e precisavam de uma placa gráfica principal a funcionar ao mesmo tempo) e deste o salto para uma placa que faz isso em simultâneo pq não fazer o mesmo com uma integração no CPU?

Vejo um grande mercado para isso que são os portateis, pois com certeza reduz ao consumo :)

:wow:
 
O problema que se coloca é físico...

Um GPU possuir hoje tantos ou mais transistores que um CPU e requer memória dedicada muito mais rápida que a memória de sistema...

Imagine o que era combinar um conroe com um GPU de topo, teriamos algo com 700-1000 de transistores, um core grandito, mesmo a 65 nm, a precisar de GDDR3-GDDR4 partilhada e a 256 bits! Imaginem o custo de implementar 2,5 (2 gb de sistema + 512 mb típicos de hoje)-4 gigas de GDDR4 a 2000 mhz? e 256 bits na motherboard?

Certamente o desempenho global do sistema iria crescer a pique (afinal passava a ter memória 4x mais rápida e controlador de memória integrado do CPU), mas o custo da maquina iriam disparar e em termos de consumos energéticos não que iria subir globalmente, até poderia abaixar, o problema seria ter tanto consumo no mesmo sitio 8o
 
tlvz quando as memorias para CPU se aproximarem da velociadade das dos GPU's, ai sim tlvz seja uma coisa a ter em conta.

Para um futuro proximo, so mesmo para substituir as onboard, para isso serve nada mais.
 
É sempre complicado perceber o que vai ser integrado no Cpu.

Por exemplo, os FPU foram integrados no Cpu à muito tempo, mas com o Torrenza da Amd uma das aplicações pode ser colocar um co-processador matemático noutro socket.

Depende sempre das aplicações.
Se calhar num servidor faz sentido integrar 4 lans 1 Gbits no cpu (como no niagara), num desktop não vale a pena.
Se calhar vale a pena num futuro proximo integrar tudo num cpu (incluindo Gpu) em computadores baixo de gama ou para o mercado empresarial. Para gamers, dificilmente será uma opção viável para já.

Uma ultima nota. Apesar de ainda não perceber bem o que vai ser as Ati Firestream, se calhar vamos, num futuro proximo, deixar de olhar para o Gpu como sendo apenas util para aplicações gráficas.
 
Firestream... nome demasiado evidente para se saber o que é. :D

Sobre o CPU+GPU, nada impossibilita a existência de dois buses, um de memória mais lenta para o CPU e outro para as memórias rápidas, como as GDDRs actuais.
 
As ATI Firestream mais não são do que X1900 XT com os interfaces DVI, D-Sub e TV-Out removidos, e com drivers específicos.
Não são placas dedicadas para física, mas sim para GPGPU computing (onde a física é apenas uma das muitas aplicações).
Não tem nada de transcendente. A Nvidia vai fazer o mesmo.

Problemas matemáticos muito paralelizáveis nunca serão processados tão optimamente numa CPU como numa GPU ou placa dedicada de outro tipo.
As CPU's deixaram de ter o fardo dessas tarefas precisamente porque eram pouco eficientes nas mesmas.
 
Última edição:
Esta solução de inicio é para substituir as X1300/7300 ou seja as low end, vai dar muito jeito é nos portateis já k se vai poder ter uma gráfica minimamente de jeito com muito mesmos gasto de energia k com a solução actual.

E quanto ao nº de transístores n é o de um CPU+GPU de agr, há muitos componentes redundantes como o controlador de memoria etc.
Axo é k é necessário adoptar um novo tipo de memoria pk a tecnologia DDR n tem evoluído muito, é sempre mais do mesmo com pouco aumento de performance.
 
Esta solução de inicio é para substituir as X1300/7300 ou seja as low end, vai dar muito jeito é nos portateis já k se vai poder ter uma gráfica minimamente de jeito com muito mesmos gasto de energia k com a solução actual.

E quanto ao nº de transístores n é o de um CPU+GPU de agr, há muitos componentes redundantes como o controlador de memoria etc.
Axo é k é necessário adoptar um novo tipo de memoria pk a tecnologia DDR n tem evoluído muito, é sempre mais do mesmo com pouco aumento de performance.

Não, não é para substituir essas placas, nem de longe.
Ambas possuem memória dedicada a velocidades respeitáveis, algo que nenhuma GPU integrada numa CPU conseguirá nos tempos mais próximos.

Se pensares numa GMA950, X3000, Xpress 200 ou Geforce 6150 estás mais perto da verdade.
 
Não, não é para substituir essas placas, nem de longe.
Ambas possuem memória dedicada a velocidades respeitáveis, algo que nenhuma GPU integrada numa CPU conseguirá nos tempos mais próximos.

Se pensares numa GMA950, X3000, Xpress 200 ou Geforce 6150 estás mais perto da verdade.

Se a ATI consegue por uma X700 no IGP então n é muito dificil para a AMD incluir uma X1300 no CPU.
 
Se a ATI consegue por uma X700 no IGP então n é muito dificil para a AMD incluir uma X1300 no CPU.

Sim, X700 sem memória dedicada e apenas compatível com SM 2.0.
A tecnologia usada é a mesma da Radeon 9700, de 2002, mas sem memória e buses dedicados, o que a torna muito mais lenta.
A Nvidia tem uma GPU com SM 3.0 e aceleração de video HD num chipset, e a Intel até já tem uma GPU DX10 no seu chipset G965.

So what ?
 
Sim, X700 sem memória dedicada e apenas compatível com SM 2.0.
A tecnologia usada é a mesma da Radeon 9700, de 2002, mas sem memória e buses dedicados, o que a torna muito mais lenta.
A Nvidia tem uma GPU com SM 3.0 e aceleração de video HD num chipset, e a Intel até já tem uma GPU DX10 no seu chipset G965.

So what ?

É muito mais lenta salvo seja.... Ja que é muito mais rapida que qualquer grafica integrada no chipset quer da Nvidia quer da Intel de momento :rolleyes:
Aceleraçao HD tb a X700 faz e com Avivo.

Quanto á inclusao de GPU´s nos CPU´s é perfeitamente possivel fazer maravilhas a este nivel....
A memoria e velocidade de acesso nao é tudo. Pode-se perder num lado mas ganha-se milhas no outro, ja que escalar as instruçoes do GPU juntamente com as do CPU na pipline originaria logo um aumento de velocidade tremendo.

Se as coisas forem bem feitas este tipo de soluçao pode ser uma ameaça mortal para o main-stream onde a ATI e a Nvidia têm a grande fatia de lucros. E nao vai ser preciso inventar muito para xegar com esta soluçao á performance de uma grafica sub 150/200 euros.

Para os segmentos mais altos sempre haverá as graficas como há hoje, mas é uma verdadeira ameaça a qualquer construtor de placas graficas ja que potencialmente poderá roubar a melhor fatia do mercado e tudo por um preço extremamente mais baixo.

Por alguma coisa a Intel e a AMD estao a investir milhoes de euros nestes brinquedos. E de certeza que nao é para andarem a brincar as experiencias e de certeza que quem produz graficas vai ficar a perder muito mercado no meio desta historia toda.
 
Última edição:
É muito mais lenta salvo seja.... Ja que é muito mais rapida que qualquer grafica integrada no chipset quer da Nvidia quer da Intel de momento :rolleyes:
Aceleraçao HD tb a X700 faz e com Avivo.

Tens benchmarks que suportem essa tua afirmação ?

Achas que essa "X700" é mais rápida do que uma 7300 GS dedicada (que até só tem 4 pixel shaders e apenas parte da memória é dedicada), por exemplo ?
 
Problemas matemáticos muito paralelizáveis nunca serão processados tão optimamente numa CPU como numa GPU ou placa dedicada de outro tipo.
As CPU's deixaram de ter o fardo dessas tarefas precisamente porque eram pouco eficientes nas mesmas.

O CPU Cell é mais rápido que qualquer GPU que exista no mercado com a possível excepção das últimas coisas que têm saído.
 
O CPU Cell é mais rápido que qualquer GPU que exista no mercado com a possível excepção das últimas coisas que têm saído.

Mais rapido em vertex shading, apenas um SPE tem mto mais poder de processamento vertex's que todos os 8 pipes da RSX.

Mas a Nivel de Pixel Shading, não se equipara sequer, por isso é que o RSX está lá, senão, n era preciso.
 
Mais rapido em vertex shading, apenas um SPE tem mto mais poder de processamento vertex's que todos os 8 pipes da RSX.

Mas a Nivel de Pixel Shading, não se equipara sequer, por isso é que o RSX está lá, senão, n era preciso.

Entao para isso crias nucleos especializados para essa tarefa e resolve-se essa situaçao. Simples.
Existem tantas possiblidades de fazer tanta coisa.....
 
Back
Topo