AMD’s Fusion May Slip into Next Decade – AMD’s Chief Technologist.

Kursk_crash

Banido
07_22_2006_notd_amd_atyt3.jpg


Graphics Processor – The Next Math Co-Processor, Says AMD

The chief technology officer of Advanced Micro Devices – Phil Hester – said in an interview that the highly-discussed microprocessors that integrate both general processing and graphics processing capabilities will be in production only in late 2009, which essentially puts their availability into the next decade – the 2010 and beyond – later than the company originally said.
Fusion Comes Later than Expected

“The first fusion CPUs will be available in prototype in late 2008 and in production in late 2009,” said Phil Hester, chief technology officer of AMD, in an interview with InfoWorld.

Earlier the company indicated that Fusion processors “are expected in late 2008/early 2009”, and the company anticipated to use them within all of the chipmaker’s “priority computing categories”, including laptops, desktops, workstations and servers, as well as in “consumer electronics and solutions tailored for the unique needs of emerging markets”. This time Mr. Hester confirmed that the first applications to use Fusion would be notebooks, but declined to indicate, when the company plans to offer something for other computing platforms.

“We’ve already, through discussions with our customers, reached agreement that the best place to initially focus this is the notebook space. That is where you get the most benefit of the efficiencies from a power standpoint and also from a physical area standpoint,” Mr. Hester said.
3D Graphics Processor’s Destiny Is Inside CPUs

Advanced Micro Devices, the world’s No. 2 maker of x86 microprocessors, believes that graphics processing units (GPUs) now are in the same position as floating point co-processing units (FPUs) two decades ago and are meant to be integrated into central processing units (CPUs).

“If you went back to the early PC platforms in the mid-1980s with the 286 generation, you had an open socket next to it for the 287 math coprocessor, and at that time, a very small fraction of the population ever bought that math coprocessor because the applications didn’t demand it. The same thing happened with the 386 processor, although you had 20% of people using it. And then the 486 integrated that as a standard part of every microprocessor, driven by the fact that the operating system and the applications demanded it,” Mr. Hester said.

The company’s chief technologist believes that while standalone graphics cards – such as those developed by AMD’s graphics processor division ATI Technologies – have a lot of power, the vast majority of consumers hardly need them, but will certainly need 3D graphics going forward, particularly due to rather intensive usage of graphics capabilities by operating systems like Microsoft Windows Vista.

“Essentially every client you see now is going to have a decent level of 3D graphics capability… If you look at the things driving that, whether it’s business information rendering or entertainment, by the 2009 time frame, just about every PC is going to have to have some level of 3D graphics. Not just the top end of the enthusiast market, but it is going to be a standard PC experience without having to incur the cost and efficiency hit of using a separate graphics card,” he said.

Mr. Hester was not questioned what level of performance could be expected from CPU-integrated GPUs and how will it compare to discrete GPUs. Currently there are chipsets – which are used by the majority of personal computers sold – with built-in graphics core, but performance of 3D graphics offered by such core-logic sets is much lower than that compared to standalone GPUs.

Though, if we take a look back at the add-in FPU market, we will remember that the massive deployment of built-in FPUs instead of add-in FPU took no less than four years. Among Intel 80486 microprocessors family – introduced in 1989 – there were 80486DX and 80486SX chips with and without FPU respectively; whereas all Intel Pentium processors – unveiled in 1993 – included FPU, which essentially forced company called Weitek, which was one of the largest suppliers of add-in FPUs, to merge with Rockwell Semiconductor Systems (now known as Conexant) in 1996.

Fonte: http://www.xbitlabs.com/news/cpu/display/20070116234458.html

As coisas não andam boas
 
mesmo nada boas....

Intel Fourth-Quarter Revenue $9.7 Billion
Posted by Marco Chiappetta - Wednesday January 17, 2007 4:00 PM EST Source: Intel

Intel Fourth-Quarter Revenue $9.7 Billion

* Operating income $1.5 billion
* EPS 26 cents
* Record microprocessor and flash unit sales
* Record mobile and server microprocessor revenue

SANTA CLARA, Calif., Jan. 16, 2007 - Intel Corporation today announced fourth-quarter revenue of $9.7 billion, operating income of $1.5 billion, net income of $1.5 billion and earnings per share (EPS) of 26 cents. Excluding the effects of share-based compensation, the company posted operating income of $1.8 billion, net income of $1.7 billion and EPS of 30 cents.

Fourth-quarter results included a gain from the sale of certain assets of the company's communications and application processor business to Marvell Technology Group partially offset by impairments, including an impairment for the related decision to place the company's Fab 23 facility in Colorado Springs, Colo., up for sale. The gain and impairments resulted in a net increase to EPS of approximately 2.5 cents. Fourth-quarter restructuring charges related to the company's structure and efficiency program were in line with the company's expectations and decreased EPS by approximately 1.5 cents.

"Intel's product and technology leadership yielded a strong fourth quarter with higher selling prices and record unit shipments in the fastest growing segments of the market," said Intel President and CEO Paul Otellini.

Mais Aqui: http://www.intel.com/pressroom/archive/releases/20070117corp.htm
 
E de mal a pior...

Intel Confirms 45nm Tape-Out, Third 45nm Fab for 2008

fp__1774_45nm_big_small.jpg


More good news for those anticipating 45nm processors

Six days after DailyTech broke the news of Intel's 45nm Penryn tape-out, the company responded today with an official announcement regarding the story.

A statement sent to DailyTech reads "Paul [Otellini] said we have working samples of the Penryn processors -- and in a short period of time have already booted 4 operating systems (Windows Vista, XP, Linux and Apple Mac OS-X)."

The original DailyTech report only specified that Windows had booted off the new CPU.

The company would not comment on whether or not Penryn's launch window was moved up, but added "These are good indicators of how healthy our 45 nm manufacturing and future product designs are looking so far as we plan to begin manufacturing production in the second half of the year ramping to three 300mm factories in 2008."

The two of the three 300mm facility mentioned are Fab 32 Chandler, Arizona and Fab 28 in Qiryat Gat, Israel. Development for 45nm processors is currently done at Intel's D1D facility in Oregon. All three facilities are expected to be fully production-ready for 300mm wafers on 45nm nodes by 2008.

In early 2006 the company announced it will build a massive 300mm wafer facility in Ho Chi Minh City, Vietnam.

Fonte: http://www.dailytech.com/article.aspx?newsid=5739
 
Nao tao boas exactamente porquê que nao percebi? (começa no CPU+GPU que é uma optima noticia, depois as contas da Intel e depois os 45nm da Intel??)

A CPU+GPU é uma inovaçao extremamente radical e necessita de tempo. Se o K8L e seguintes geraçoes de CPU´s estivessem dessa forma atrasado é que era extremamente preocupante....
 
Nada boas para ninguem....

Intel sales and profits fall in fourth quarter
Wednesday January 17, 5:41 pm ET

Intel Corp. reported a drop in sales and profits for the fourth quarter and does not foresee a substantial improvement in the semiconductor market in 2007.

California-based Intel (NASDAQ:INTC - News) -- which has computer chip plants in Chandler -- posted fourth quarter revenue of $9.7 billion compared with sales of $10.2 billion for the quarter ended Dec. 31, 2005. The company also reported a net profit of $1.5 billion, off 39 percent from the same time period in 2005. That translates to 26 cents per share for the most recent quarter compared to 40 cents a year ago. The current number, however, is 1 cent above analysts' estimates for the quarter.

One of the impacts on revenue is Intel's heated competition with Advanced Micro Devices Inc., which has put downward pressure on prices.

http://biz.yahoo.com/bizj/070117/1403947.html?.v=1
 
Nao tao boas exactamente porquê que nao percebi? (começa no CPU+GPU que é uma optima noticia, depois as contas da Intel e depois os 45nm da Intel??)

A CPU+GPU é uma inovaçao extremamente radical e necessita de tempo. Se o K8L e seguintes geraçoes de CPU´s estivessem dessa forma atrasado é que era extremamente preocupante....

E não está ???

já cá devia estar em novembro 2006...

Custa-me admitir, mas este negócio com a ATI, atrasou a AMD e a ATI..

6 meses pros dois... já cá devia estar o K8L e a R600
 
E não está ???

já cá devia estar em novembro 2006...

Custa-me admitir, mas este negócio com a ATI, atrasou a AMD e a ATI..

6 meses pros dois... já cá devia estar o K8L e a R600

Exactamente especialmente a(o) R600 , por esta altura já a ati devia ter lançado uma plaka de topo com suporte directx10 e prepara as mid e low pk qd sairem a gama 8600 não há como parar.
 
E não está ???

já cá devia estar em novembro 2006...

Custa-me admitir, mas este negócio com a ATI, atrasou a AMD e a ATI..

6 meses pros dois... já cá devia estar o K8L e a R600

A AMD dominou maior parte de 2006 mesmo assim, porque os Core Duo so foram introduzidos mais pro final de ano.

O R600 e o K8L têm datas marcadas. Qual é que é o grande problema que sinceramente ainda nao percebi :zzz:

So se for o facto de a AMD neste momento entrar ao nivel de negocio que a Intel faz com propostas aos OEM makers de máquinas com CPU + grafica + board tudo AMD com grandes descontos no preço.
E esta postura é para seguir no mercado portatil. A AMD ja começou a apresentar estas soluçoes.
Imagina o lucro que a AMD nao tem numa máquina destas mesmo depois de um bom desconto....
Isto é vai entrar no mercado que a Intel ja faz á muito tempo com CPU + board + grafica integrada tudo Intel.

A diferença é que a AMD para alem de poder fazer uma soluçao igual á da Intel tudo feito em casa ainda pode colocar uma placa grafica discrete potentissima e continuar com material todo feito em casa, por isso projeçoes de desgraça para a AMD axo que nao fazem grande sentido....

Se o K8L ou o R600 ate podem atrasar ainda mais, mas se vierem soluçoes melhores que a concorrencia rapidamente escalam o mercado que perderam com uma arquitectura superior.
 
Última edição:
Quem vem atrasado, vem atrasado..custa mais recuperar!!! perde o "momentum"

No entanto a Intel vai "shipar " 1 mihão de 4-core em mid2007... (só mesmo paraentusiastas.. não é um numero pequeno ??)

Intel to Ship One Million of Quad-Core Chips by Mid-2007.

Paul Otellini, chief executive of the world’s largest x86 microprocessor maker Intel Corp. said that his company was on track to ship one million of central processing units with four cores by mid-2007. The company did not reveal how many of quad-core chips will be shipped throughout the year, but earlier it was estimated that there will be millions supplied.

“We continued to advance our technology in Q4 by launching the industry’s first quad-core processors for volume servers and PCs. We launched nine different versions, including the first Core 2 Quad processors for mainstream PCs, and we are well on track to deliver 1 million quad-core processors by the middle of 2007,” Paul Otellini said during a conference call with financial analysts.

Currently the world’s largest maker of chips offers Intel Core 2 Quad Q6600 and Intel Core 2 Extreme QX6800 for desktops, which are priced at $851 and $999, respectively. In addition, the company ships five dual-core Intel Xeon X5355, E5345, E5335, E5320 and E5310 microprocessors for dual-socket server and workstation systems as well as two Intel Xeon chips X3220 and X3210 for single-processor systems.

Earlier it was reported that quad-core microprocessors’ share among Intel’s desktop shipments will be only 3% in 2007, which is a very significant number, in fact.

While it may seem that 3% of Intel’s desktop shipments is not a substantial amount of chips, this is not completely correct. Even if the market of personal computers in 2007 remains on the level of 2006, then, about 230 million systems will be sold (data by IDC), the vast majority employing one chip. Intel commands roughly 75% of x86 microprocessor market, which is about 172.5 million of processors. Even if desktop processors account for only 60% of all shipments, then 3% of desktop shipments equals to 3.105 million of units, a large amount of microprocessors. If the amount of systems to be supplied in 2007 reaches 257 million, then Intel’s total shipments will be nearly 192 million and 3% of its desktop shipments will equal to about 3.456 million. Intel has never confirmed such numbers or shares, which were released unofficially.

More affordable pricing of quad-core chips is expected in the second half of 2007, when Intel releases its second-generation quad-core microprocessors made using 45nm process technology and support SSE4 instructions. The microprocessor code-named Yorkfield will feature single-die design as well as unified level-two (L2) cache, which should boost its efficiency when compared to Intel’s first-generation quad-core offerings that have two-dice design and have to cooperate using processor system bus (PSB). Yorkfield is expected to feature 1333MHz PSB and be compatible with chipsets code-named Bearlake, which also support DDR3 memory.

“We also completed the development of our 45nm technology, which is scheduled for production in the second-half of this year. I am pleased to announce that we have working samples of Penryn – our first 45nm microprocessor – and have booted four different operating systems on this first silicon,” Intel’s chief told the conference, describing the company’s success with dual-core Penryn chip.

Fonte: http://www.xbitlabs.com/news/cpu/display/20070117070908.html
 
Para mim, o AMD "Fusion" tem tanto de inovador como a inclusão de GMA950's ou Geforce 6150 nas northbridges das motherboards, ou seja, muito pouco...

O tipo de cálculos de uma gráfica é hoje em dia completamente diferente dos que são feitos numa CPU, sobretudo uma CPU general purpose e aínda por cima com a ISA x86.
Não há fórmulas mágicas.
Uma CPU dá uma péssima unidade de processamento gráfico, da mesma maneira que uma gráfica seria uma péssima CPU.
É como água e azeite, não se misturam.

Nos anos 80 as placas gráficas também processavam apenas o input/output de vídeo, enquanto a CPU fazia todo o trabalho gráfico propriamente dito.


Isto serve apenas para reduzir custos nas placas integradas, nomeadamente, nos PC's portáteis.
A motherboard fica reduzida a uma Southbridge separada, que serve para I/O, e funções básicas de controlador de memória, CPU e GPU ficam num só chip "Fusion", mas com severos compromissos ao nível da velocidade em cada uma dessas tarefas especializadas.
Em suma, não se esperem milagres, porque eles não existem.
 
Para mim, o AMD "Fusion" tem tanto de inovador como a inclusão de GMA950's ou Geforce 6150 nas northbridges das motherboards, ou seja, muito pouco...

O tipo de cálculos de uma gráfica é hoje em dia completamente diferente dos que são feitos numa CPU, sobretudo uma CPU general purpose e aínda por cima com a ISA x86.
Não há fórmulas mágicas.
Uma CPU dá uma péssima unidade de processamento gráfico, da mesma maneira que uma gráfica seria uma péssima CPU.
É como água e azeite, não se misturam.

K comparação mais ridícula, isto vais ser muito mais k meter uma low end no mesmo die. :rolleyes:

Tb vão ser introduzidas novas instruções e isto pode revolucionar o tamanho, preço e consumo dos computadores.
Isso é de especial importância para os portáteis, na verdade poderá ser mt mais rápido k as soluções actuais.

Um CPU tem tecnologias de fabrico mais avançadas k os GPU's, trabalha a mais MHz e vai ter acesso mais rápido à memoria k do sistema.

Com o GPU integrado, vais tb ter um ***** mais barato, provavelmente um único *****, logo tb tens uma bord mais barata, necessitas de uma bateria menor etc.
Está tudo interligado e isto vai alterar todos os componentes do PC reduzindo os custos.

Vai começar nos low end, mas o futuro é integração e n especialização, os X86 já vingaram um plataformas especializadas devido a isso mesmo, com o investimento já feito são mais económicos k uma solução especializada.

No futuro vai ser CPU+GPU+Controlador de memoria/PCI-E, placa de som/fisica, wireless/BT/GPS/USB/SATA tudo num só *****.
Para fazeres upgrade trocas o chip e já está, ou então compras um PC novo, cada x o tempo de upgrade é mais curto, olha para os telemóveis, n ha upgrades, compras um novo quando estás farto do k tens, o mesmo vai acontecer com os PC's.

De ***** maneira 2010 está de acordo com o tempo para desenvolver um CPU 4anos, até axo um pouco optimista se o conseguirem fazer antes do fim da década.

O futuro parece bom para a AMD se o conseguirem desenvolver antes da Intel. :)
 
K comparação mais ridícula, isto vais ser muito mais k meter uma low end no mesmo die. :rolleyes:

Tb vão ser introduzidas novas instruções e isto pode revolucionar o tamanho, preço e consumo dos computadores.
Isso é de especial importância para os portáteis, na verdade poderá ser mt mais rápido k as soluções actuais.

Um CPU tem tecnologias de fabrico mais avançadas k os GPU's, trabalha a mais MHz e vai ter acesso mais rápido à memoria k do sistema.

Acesso partilhado.
Todos sabemos no que dá, não é verdade ? :rolleyes:

Com o GPU integrado, vais tb ter um ***** mais barato, provavelmente um único *****, logo tb tens uma bord mais barata, necessitas de uma bateria menor etc.
Está tudo interligado e isto vai alterar todos os componentes do PC reduzindo os custos.

Por outro lado, pagas os componentes adicionais na CPU, quer uses a gráfica integrada ou não.
Por pagamento, não falo apenas de aspectos financeiros, mas também de consumo eléctrico e dissipação de calor.
Já para não falar que, se uma tecnologia de I/O, gráfica, de som ou de "física", se tornar obsoleta, tens de trocar tudo e não apenas o aspecto que queres melhorar.

Vai começar nos low end, mas o futuro é integração e n especialização, os X86 já vingaram um plataformas especializadas devido a isso mesmo, com o investimento já feito são mais económicos k uma solução especializada.

Os x86 "vingaram" porque a IBM escolheu o Intel 8088 para o seu primeiro computador pessoal.
O resto é história.
Até essa altura, quem dominava era a MOS e a TI, com os seus 6502 e 6800, respectivamente.

No futuro vai ser CPU+GPU+Controlador de memoria/PCI-E, placa de som/fisica, wireless/BT/GPS/USB/SATA tudo num só *****.
Para fazeres upgrade trocas o chip e já está, ou então compras um PC novo, cada x o tempo de upgrade é mais curto, olha para os telemóveis, n ha upgrades, compras um novo quando estás farto do k tens, o mesmo vai acontecer com os PC's.

De ***** maneira 2010 está de acordo com o tempo para desenvolver um CPU 4anos, até axo um pouco optimista se o conseguirem fazer antes do fim da década.

O futuro parece bom para a AMD se o conseguirem desenvolver antes da Intel. :)

De economia de custos passamos para trocar o computador/sistema todo e "já está".
Espantoso.
Nem é preciso ter em conta TDP's, motherboards, voltagens, sockets, etc, etc. :P


Eu mantenho a minha opinião, e quando sair finalmente vão dar-me razão.
Todos os sites especializados em 3D concordam. Isto serve apenas para reduzir custos no mercado ultra-low-end, sobretudo em portáteis.
Vão encontrar estas soluções nos mesmos sítios onde hoje estão os laptops a menos de 700 euros, ou nos PC's baratos da Vobis/Worten, ou seja, low-end.
 
Acesso partilhado.
Todos sabemos no que dá, não é verdade ? :rolleyes:
No que é que dá? Qual é o problema do acesso partilhado?

Por outro lado, pagas os componentes adicionais na CPU, quer uses a gráfica integrada ou não.
Por pagamento, não falo apenas de aspectos financeiros, mas também de consumo eléctrico e dissipação de calor.
Já para não falar que, se uma tecnologia de I/O, gráfica, de som ou de "física", se tornar obsoleta, tens de trocar tudo e não apenas o aspecto que queres melhorar.
De certeza que existirão modelos para todos os gostos e carteiras uns com gráfica melhor outros com gráfica pior... Para além disso há sempre aquela outra tecnologia (Torreanza?) através da qual se poderão integrar outros chips dedicados às várias tarefas de I/O... ou então partilhar a carga total do sistema entre eles.

Eu mantenho a minha opinião, e quando sair finalmente vão dar-me razão.
Todos os sites especializados em 3D concordam. Isto serve apenas para reduzir custos no mercado ultra-low-end, sobretudo em portáteis.
Vão encontrar estas soluções nos mesmos sítios onde hoje estão os laptops a menos de 700 euros, ou nos PC's baratos da Vobis/Worten, ou seja, low-end.
Não acredito nisto, acho que é o caminho a seguir... é normal que quando algo passa a integrar todos os PCs, acabe por surgir integrada no resto... como as gráficas integradas na motherboard têm vários problemas, acredito que a solução passe por integrá-las directamente no CPU, onde podem ganhar bastante em termos de performance.
 
e pq não ter memoria para a gráfica separada da de sistema, mantendo as specs actuais, 256bits e velocidades maiores,etc.?

Acho que isso poderia introduziri complexidade desnecessária ao problema... até 2009/2010 há tempo suficiente para resolverem esse tipo de questões, seja usando tecnologias que estão agora em desenvolvimento (XDR?) ou outras que possam vir a ser pensadas ou adaptadas para o efeito... a Intel provavelmente acabará por investigar soluções integradas do mesmo género e isso também poderá ajudar a "puxar" a indústria das memórias e levá-los a propor novas soluções.
 
e pq não ter memoria para a gráfica separada da de sistema, mantendo as specs actuais, 256bits e velocidades maiores,etc.?

Porque memória em slots nunca será tão rápida como memória soldada num PCB, com um bus dedicado entre elas e a GPU.
Basta ver as velocidades que se conseguem com GDDR3 e GDDR4, muito acima daquilo que se consegue na DDR2, e ligadas a buses de até 384 bit, comparados com bus de 128bit (no máximo) partilhados com o resto do sistema.

Quanto a quem respondeu sobre qual o mal de se usar partilhada, que experimente por exemplo uma 6200 Turbocache, e depois uma 6200 com bus de 128bit dedicado (como uma que eu tenho), para ver as diferenças.
 
Quanto a quem respondeu sobre qual o mal de se usar partilhada, que experimente por exemplo uma 6200 Turbocache, e depois uma 6200 com bus de 128bit dedicado (como uma que eu tenho), para ver as diferenças.

Não mudes o assunto, o que é que isso tem a ver com a discussão? Estamos a falar de uma gráfica integrada num CPU, com a ligação que este tem à memória RAM... não tem nada a ver com gráficas ligadas por PCI-Ex...

A questão do bus é pertinente, mas acredito que isso ainda evolua nos próximos 2/3 anos (aí o timing definido pela AMD para lançar isto para o mercado até parece suficiente para que a indústria apresente alternativas).

Não acredito que a AMD implemente uma solução integrada deste género sem uma ligação dedicada CPU <-> RAM, até porque vêm aí novos tipos de memórias com maior largura de banda e latências mais baixas... para que o "Fusion" seja verdadeiramente revolucionário, também é preciso contar com evolução neste aspecto.
 
Última edição:
Não mudes o assunto, o que é que isso tem a ver com a discussão? Estamos a falar de uma gráfica integrada num CPU, com a ligação que este tem à memória RAM... não tem nada a ver com gráficas ligadas por PCI-Ex...

A questão do bus é pertinente, mas acredito que isso ainda evolua nos próximos 2/3 anos (aí o timing definido pela AMD para lançar isto para o mercado até parece suficiente para que a indústria apresente alternativas).

Não acredito que a AMD implemente uma solução integrada deste género sem uma ligação dedicada CPU <-> RAM, até porque vêm aí novos tipos de memórias com maior largura de banda e latências mais baixas... para que o "Fusion" seja verdadeiramente revolucionário, também é preciso contar com evolução neste aspecto.

Mudei de assunto de que forma ?

Como é que achas que o esquema Turbocache/Hypermemory acede à memória do sistema ?
Achas que possuem controladores das gráficas, além de controlar a memória dedicada, também possuem controladores de memória DDR-2 onboard, é isso ?
Wrong.
Acedem ao controlador de memória do sistema, via PCI-Express e desse bus à Northbridge (no caso da AMD, via controlador de memória integrado na CPU).


Assim, tal como já acontece hoje com soluções como as Geforce 6100/6150, ATI Xpress200/1100 e RS690G, o controlador de memória está na CPU.
Apenas se limitam a integrar 1 ou dois pixel shaders básicos na die da CPU, talvez 1 vertex shader (as soluções onboard da ATI e da Intel emulam os vertex shaders em software, não os implementam em hardware como na Nvidia), um ou dois RAMDAC's ou TMDS e pronto, nada muda.
Ao contrário do que aconteceu com a passagem do controlador de memória para a CPU, a passagem de uma gráfica que já dependia do controlador de memória da primeira para a die da segunda é bem menos interessante.
Muito mais eficiente seria uma solução inversa, como a MS implementou na Xbox 1 (Nvidia) e na Xbox 360 (ATI), onde o controlador de memória partilhada está na GPU, não na CPU.



Por último, resta-me dizer-te que as latências das memórias têm pouca influência na performance gráfica.
Por se tratarem de tarefas onde muitas operações são similares ou mesmo iguais, a latência pode ser facilmente mascarada (vejam o esquema ring-bus da ATI X1950 XTX, ou as partições de ROP's independentes, cada uma com o seu bus de 64bit, nas Geforce 8800 GTX), algo que simplesmente não é possível numa CPU (não se chamam "general purpose" por nada...).


Em performance gráfica, muito mais do que a latência, o que interessa é a largura de banda em bruto, combinada com esquemas de conservação da mesma, como Z-Buffers, compressão de cor e texturas, etc.
Curiosamente ou não, se fores observar com mais atenção as specs das gráficas integradas e low-end, a primeira coisa que perdem em relação às outras são os esquemas de compressão e de Hidden Surface Removal que eu indiquei acima, de forma a poupar transístores, logo, custos.
 
Última edição:
A ideia de ter memória partilhada entre o CPU e a GPU utilizando ambos os mesmo controlador de memória e comunicando entre ambos em algum bus dedicado rápido parece-me interessante.

Chega ao ponto em que naturalmente ambos estarão no mesmo die e no fundo não teremos mais que um "CPU" apesar de este ter pouco a ver com os actuais CPUs

No entanto isto ainda está longe
 
A AMD nao quer substituir as graficas standalone, mas sim:
“Essentially every client you see now is going to have a decent level of 3D graphics capability… If you look at the things driving that, whether it’s business information rendering or entertainment, by the 2009 time frame, just about every PC is going to have to have some level of 3D graphics. Not just the top end of the enthusiast market, but it is going to be a standard PC experience without having to incur the cost and efficiency hit of using a separate graphics card,” he said.

Eles querem ter um CPU quem sem a adiçao de qualquer placa grafica ofereça aos seus compradores uma aceleração 3D decente sem ter que investir dinheiro nenhuma placa grafica áparte.

Aquilo vai ser um CPU totalmente redesenhado em que é possivel fazer calculos de pixel e vertex-shaders. Mas as unidades que vao fazer isso tb vao fazer os mais diversos calculos para poder processar alguns tipos de dados.

Simplesmente oferecem um CPU normalissimo para concorrer com os da concorrencia que tem a particularidade de lidar e executar jogos e oferecer uma aceleração 3D bastante boa sem a adição de qualquer gráfica.

A ideia em si é 5 estrelas e a Intel andará por estas alturas a fazer o mesmo pq nao quer xegar a 2010 e ser arrasada nos jogos pela concorrente com 1/5 do preço. A ideia de CPU+GPU é um factor de markting e venda com muito potencial e faz tremer a Intel de tal forma que anda tb a seguir este caminho.

A propria Nvidia anda a fazer incursoes no X86 para nao xegar a 2010 e ver 50% ou mais das seus lucros irem ao ar pq existe um CPU+GPU que por 5x menos dinheiro faz o mesmo que as suas low e mid-low end.
 
Última edição:
Back
Topo