TSMC sampling 45nm Fusion CPUs

Sim, a Intel já o fez à imenso tempo, mas nunca em produção em massa, creio eu.

De qualquer forma, o Fusion desilude um pouco porque esperava-se algo mais ousado dentro do conceito que promete. Não duvido que seja um desafio um core com GPU e CPU integrados mas um MCM parece-me algo muito simples de fazer. Basta colar os cores e tá a andar, restando depois redesenhar os traces da board. Deixa de soar a algo quase revolucionário como se esperava inicialmente.

Ainda assim será interessante verificar não só a performance deste Fusion mas principalmente os ganhos de autonomia. Aliar isto a discos SSD deve permitir sistemas muito funcionais e com horas largas de autonomia, assim espero eu. :)

Retirar o gargalho chamado PCI express entre o CPU e o GPU é peanuts? Não me parece. A ideia é simplificar a arquitectura, simplificar o CPU usando o GPU como co-processador. Ganhas na sinergia entre os dois PUs, ficando o conjunto mais simples mas mantendo ou aumentado a performance. Claro que convém não esquecer o problema da memória. Ou passam a usar memória rápida quer para o CPU e GPU, por exemplo XDR, ou passamos a ter dois bancos de memória, DDR e GDDR, embora devido à especificidade da GDDR seja difícil de a meter em slots. :D

A sério ?

cpu-mch-vrm-package.jpg

Onde é que está o GPU e o CPU aí? Estou a ver um CPU e um chipset. Ligar este tipo de chips é brincadeira de crianças. É tipo LEGO. Em vez de se fazer o "routing" no circuito impresso faz-se no chip.
 
Última edição pelo moderador:
De qualquer forma, o Fusion desilude um pouco porque esperava-se algo mais ousado dentro do conceito que promete. Não duvido que seja um desafio um core com GPU e CPU integrados mas um MCM parece-me algo muito simples de fazer. Basta colar os cores e tá a andar, restando depois redesenhar os traces da board. Deixa de soar a algo quase revolucionário como se esperava inicialmente.

O primeiro passo deve ser este, mas muito rapidamente verás evoluçao. No artigo do theInq falam logo em 1 só core:
When it comes to the future, it is obvious that AMD will want to create a monolithic die with both CPU and GPU part glued together, but with 45 nanometre and 55 nanometre manufacturing processes being a reality in 2008, first generation will have to be MCM packed.

A AMD mostrou um slides de como vai evoluir. Primeiro uma coisa simples, depois passa tudo para 1 so core mas com unidades funcionais tudo separado, depois os proximos passos são os mais complicados mas são os melhores que será a mistura de unidades funcionais sendo um CPU+GPU uma unica unidade e não duas separadas. Isto precisará de uma nova instruction set que terá que ser extremamente complexa.
 
Acho que o Ajax falou e BEM !!

o routing directo entre a GPU e o CPU é algo que anintel não tem..

Têm é CPU - Chipset..mas isso é muito mais simples e feito actualmente em tudo o que é chipset..

portanto GPU -- CPU sem bus PCI-express e usando o HTTT in-chip é algo de novidade...

Sim senhor !!!
 
Retirar o gargalho chamado PCI express entre o CPU e o GPU é peanuts? Não me parece. A ideia é simplificar a arquitectura, simplificar o CPU usando o GPU como co-processador. Ganhas na sinergia entre os dois PUs, ficando o conjunto mais simples mas mantendo ou aumentado a performance. Claro que convém não esquecer o problema da memória. Ou passam a usar memória rápida quer para o CPU e GPU, por exemplo XDR, ou passamos a ter dois bancos de memória, DDR e GDDR, embora devido à especificidade da GDDR seja difícil de a meter em slots. :D

que exagero!, qual era o bottleneck que o PCI-e x16 representava para as graficas de gama baixa a media-alta?

A ideia final, acredito realmente que seja por tudo em um, passando o GPU aproveitar recursos do CPU, e vice versa... no entanto, esta implementação etsa muito longe disso, e não passa de acopolar as coisas no mesmo die, e isso é simples porque o HT o permite. Partilhar recursos computacionais entre cpu e gpu é algo de muito maior valor, mas substancialmente mais complicado.

Na gama baixa, a que isto se destina, não creio que exiistam grandes inconvenientes em usar memoria partilhada.
mas neste sistema, o acesso do GPU à memoria não deve ser nada trivial, dado que não aproveita a proximidade do controlador de memoria integrado no CPU, tendo muito provavelmente que recorrer ao HT.

isto é um primeiro passo, energeticamente talvez se poupe qualquer coisa... mas a nivel de engenharia, não é nada de especial. quando se passar para o conceito da partilha de recursos, e gpu efectivamente integrado no cpu, então ja estamos perante uma solução realmente digna de merito.
 
que exagero!, qual era o bottleneck que o PCI-e x16 representava para as graficas de gama baixa a media-alta?

A ideia final, acredito realmente que seja por tudo em um, passando o GPU aproveitar recursos do CPU, e vice versa... no entanto, esta implementação etsa muito longe disso, e não passa de acopolar as coisas no mesmo die, e isso é simples porque o HT o permite. Partilhar recursos computacionais entre cpu e gpu é algo de muito maior valor, mas substancialmente mais complicado.

Na gama baixa, a que isto se destina, não creio que exiistam grandes inconvenientes em usar memoria partilhada.
mas neste sistema, o acesso do GPU à memoria não deve ser nada trivial, dado que não aproveita a proximidade do controlador de memoria integrado no CPU, tendo muito provavelmente que recorrer ao HT.

isto é um primeiro passo, energeticamente talvez se poupe qualquer coisa... mas a nivel de engenharia, não é nada de especial. quando se passar para o conceito da partilha de recursos, e gpu efectivamente integrado no cpu, então ja estamos perante uma solução realmente digna de merito.

Cada tiro cada melro. O bootleneck do PCI express entre o CPU e o GPU faz-se sentir sobretudo quando se usa o GPU como co-processador. A ideia é o CPU aproveitar o GPU, embora o inverso também é interessante mas menos importante. Não sabes à partida como vai se efectuar o acesso à memória por parte do GPU. Suspeito que para o low-end seja feito através do HT via CPU e o uso de bancos de DDR. Se funciona bem nas integradas para o respectivo mercado então com a ligação directa GPU/CPU melhor será. A fusão entre CPU e GPU, à semelhança do Cell embora aqui o parte do GPU seja mais uns SPUs (stream processor units), é à partida mais complicada e nunca seria para breve. Não há assim tanta coisa que possam partilhar a não ser o recurso a caches. Por outro lado há pormenores técnicos. Os CPUs da AMD são fabricados em SOI enquanto os GPUs da ex-ATI são "implementados" em "bulk silicium". O Fusion não é mais do que uma aplicação do Torrenza da AMD para o mercado do GPU com a novidade do GPU poder estar ainda mais próximo do CPU, isto é, num mesmo chip.
 
TSMC hints at processor deal with AMD
CEO says a deal to manufacture processors for an unnamed customer will make a 'meaningful contribution' to TSMC's revenue


Taiwan Semiconductor Manufacturing Co. (TSMC), the world's largest contract chipmaker, is gearing up to make microprocessors for an undisclosed customer that appears to be Advanced Micro Devices (AMD).

TSMC will manufacture processors for the unnamed customer in 2008, Rick Tsai, TSMC's chief executive officer, told analysts during a meeting that was transmitted live over the Internet.

"We expect to see something start to happen during the second half of next year," he said, adding the deal is expected to make a "meaningful contribution" to TSMC's revenue.

Tsai declined to disclose many details but revealed TSMC is investing heavily in high-K metal gate technology for the customer. "We are putting in technology for them," he said.

High-K materials are a key component of 45-nanometer process technology.


As chip manufacturers make transistors smaller and pack them closer together, they need to prevent electrons leaking from one part of the transistor to another. A long-standing problem, leakage becomes severe with chips made using a 45-nm process. The number refers to the average size of the smallest feature that can be created on a chip.

To solve the leakage problem, chipmakers turned to high-K materials that significantly reduce leakage compared to silicon dioxide, which is used with older process technologies.

TSMC already makes microprocessors for Taiwan's Via Technologies. But Via's processors are made using older process technology and are unlikely to require high-K materials any time soon.

That leaves AMD -- which already uses TSMC to manufacture its line of graphics chips -- as the most likely customer. Intel, which uses a high-K material and a 45-nm process to make its upcoming Penryn processor chips, manufactures its own processors.

AMD currently outsources some processor production to Singapore's Chartered Semiconductor Manufacturing. But Taiwanese press reports recently suggested AMD plans to use TSMC to manufacture its upcoming Fusion chip, a processor that combines a CPU with a graphics processor on a single piece of silicon. Fusion is expected to hit the market next year and will be made using a 45-nm process.

Currently, AMD's most advanced processors are made using a 65-nm process that does not use a high-K material.

AMD executives could not immediately be reached for comment.

AMD and TSMC have built a closer relationship since AMD's acquisition of ATI Technologies, a graphics chipmaker and former TSMC customer, last year. In May, the two companies announced a deal for TSMC to make graphics chips for AMD using a 65-nm process. That announcement followed a manufacturing deal between TSMC and Spansion, which counts AMD as an investor, and came amid speculation that AMD was seeking a partner for a joint-venture chip plant.

Tsai's remarks on TSMC's processor manufacturing plans came as the company announced its second-quarter results. The company said demand for chips picked up during the period, in line with expectations that the worst of a global chip glut is over.

TSMC's second-quarter revenue was NT$74.9 billion (US$2.3 billion as of June 30, the last day of the period being reported), up 15.4 percent over the previous quarter. But that figure -- which came in at the upper range of TSMC's forecast -- was nearly 9 percent lower than the same period last year, when the company reported revenue of NT$82.1 billion.

TSMC reported net income was lower during the second quarter, down 25.1 percent to NT$25.5 billion. The chipmaker reported net income of NT$34 billion during the second quarter of 2006.
http://www.infoworld.com/article/07/07/26/TSMC-hints-at-processor-deal-with-AMD_1.html
 
TSMC reportedly to make only GPU part of AMD Fusion

Motherboard makers predict that AMD will retain production of the CPU portion of its Fusion processor at its own fabs or that of Chartered Semiconductor until at least 2009, with Taiwan Semiconductor Manufacturing Company (TSMC) to produce the graphics processor unit (GPU) portion of the processor.

AMD's Fusion processor will consist of a GPU manufactured on a 55nm process by TSMC plus a silicon-on-insulator (SOI-) based CPU manufactured on a 45nm process at AMD's Fab 36 and Fab 38 or outsourced to Chartered. A packaging and testing plant will then package the CPU and GPU together as a Fusion processor.

AMD is pushing its "asset light" FlexFab plan in cooperation with Chartered, TSMC and UMC to separate the supply risk. Some motherboard makers think that AMD will increase outsourcing of production to counter pricing competition from Intel.


AMD's CPU and GPU products are already being produced on a 65nm process and the company is preparing to enter mass production of GPUs on 55nm while 45nm CPU and GPU products will enter mass production in 2008. The company plans to introduce a 32nm process in 2009 and start mass production in 2010 with plans to introduce a 22nm process in 2011.
http://www.digitimes.com/news/a20070806PD201.html
 
Tal como se esperava. Não é uma CPU com funções de GPU integradas na própria arquitectura, como se pensava quando a AMD começou a espalhar o "hype" logo após a compra da ATI.
Foi fogo de vista.

Fazer duas dies e "colá-las" num mesmo package não é nada de extraordinário, sobretudo quando até o socket é diferente das versões normais das CPU's da empresa.

Been there, done that.

cpu-mch-vrm-package.jpg
 
Another hint from AMD that Fusion aims above IGPs

ati.png


Speaking at an Australian tech show, an AMD spokesperson suggested that Fusion based systems, expected to ship in late 2008 or early 2009, will initially focus on the integrated notebook market. This kind of thinking has been expressed before from the AMD camp, so by itself it is not news. However, the spokesperson then went on to offer as expectations that the graphics performance of said Fusion would be similar to "mid-to-high-range" graphics cards of today. Further, that "perhaps" the cost would be marginally higher than current integrated solutions for notebooks.

Well now, let's conjure with that, shall we? First, while "mid-to-high-range" performance sounds fantastic, when one considers that he's referring to the performances of today's graphics cards as seen from the perspective of early 2009. . . well, let's just say that it's one of those formulations that requires one to get it exactly right or it's entirely wrong --like, for instance, "best hitting left-handed second baseman from the Dominican Republic". Second, "mid-to-high-range" is quite some range! Is it HD 2900 XT performance or HD 2600 Pro performance suggested to be on offer here? Makes a bit of a difference, no? To be conservative let's guess he's more suggesting 2600 XT kind of performance here, in a notebook integrated solution in early 2009 for "perhaps" a bit more jingle than a typical integrated graphics notebook today. Well, sign us up for liking that formulation if they can deliver it.

Having said that, there is a bit of risk here for AMD. Trying to create a new market segment is always a bit risky, and sometimes it works out gloriously and sometimes it works out with some other less-than-happy adverb ending with a "ly". One can remember, for instance, ATI's surprise to discover with their early chipsets that market was much more interested in defending their price points than in having a better mousetrap for just a little bit more. When that happens, margins tend to end up in the toilet.

Having said that, anyone who has priced integrated graphics notebooks vs more capable discrete graphics notebooks knows there is typically a pretty decent size price gap there that Fusion may be able to fill nicely and to significant market penetration if they can keep the prices closer to the IGP end of the current range. Such a development might make things very uncomfortable for discrete graphics solutions in the lower half of the notebook market.
http://www.beyond3d.com/content/news/467
 
Esqueceram-se de falar em processos.

Sim, é que ter um IGP na CPU é muito bonito do ponto de vista conceptual, mas nunca poderá ser competitivo em termos de preços com um chipset (estará sempre presente uma northbridge e/ou uma southbridge na motherboard, a CPU não pode fazer tudo sozinha para "falar" com o resto dos periféricos do sistema, cuja dinâmica de evolução é completamente diferente e funciona a diferentes "velocidades").
Um chipset não precisa de ser fabricado em processos topo-de-gama caros, e é muito mais modular porque não tem a "bagagem" de uma arquitectura fixa toda atrás (x86, etc).


Além disso, é mais vantajoso competir pela combinação de componentes dos chipsets para cobrir os diferentes mercados, do que ter de criar variantes diferentes de chips x86.
Quem diria que o QuadFX que a Nvidia criou para a AMD (nForce 680a) acabou por ser a simples combinação de duas northbridges Nforce 570 SLI por Hypertransport ?
Ou que as Northbridges de alguns chipsets Nvidia para AMD podem ser reutilizadas na função de Southbridges para chipsets Nvidia para a plataforma Intel ?


Prova disso é o próximo IGP da Nvidia para AMD, que promete performance ao nível já muito aceitável de uma 8400 GS, já em Novembro. O que será mais barato ? Manter os componentes de uma CPU e fazer um update somente à parte do IGP, ou fazer um update ao IGP directamente no chipset ?
A Intel tem um custo de fabrico de chipsets com IGP's que é em média 1.8 a 2 dólares mais caro do que a versão "sem" IGP (o sem está entre aspas porque a componente gráfica está lá, mas desactivada), sem dúvida porque é preciso fazer mais testes de controlo de qualidade a esses componentes.


Eu continuo a dizer que não faz qualquer sentido ter soluções gráficas integradas em CPU's, a não ser no espectro absolutamente low-end do mercado.
São workloads tão fundamentalmente diferentes que é sempre mais vantajoso ter soluções dedicadas a evoluir separadamente.
Recordo que as CPU's já fizeram o trabalho gráfico até aos anos 80 (a placa gráfica limitava-se a fazer o output da conversão de vídeo, sem capacidades de processamento local autónomo de registo), e foi só com o lançamento de gráficas 2D e mais tarde das placas 3D que a evolução do estado-da-arte acelerou da forma tremenda que todos nós conhecemos.
 
Prova disso é o próximo IGP da Nvidia para AMD, que promete performance ao nível já muito aceitável de uma 8400 GS, já em Novembro. O que será mais barato ? Manter os componentes de uma CPU e fazer um update somente à parte do IGP, ou fazer um update ao IGP directamente no chipset ?

As noticias falam de uma performance de 800 3Dmarks 2006 para o proximo IGP da Nvidia.
O Fusion é descrito como qualquer coisa como uma HD 2600 XT, o que dará 5000 3dmarks 2006.
Ha aqui uma ligeira diferença de 600%. Se 800 3dmarks 2006 é muito aceitável, 5000 3dmarks é bombástico mesmo daqui a 1 ano.

E esta primeira iteração do Fusion poderá nao ser muito atractiva, mas quando começarem a misturar unidades funcionais entre o CPU e o GPU e a lançarem extensões ao X86 que vejam o CPU+GPU como um só a coisa muda muito de figura.

Bom, mas tudo tem que ter um início. Nao se pode pedir á primeira o impossível.
 
As noticias falam de uma performance de 800 3Dmarks 2006 para o proximo IGP da Nvidia.
O Fusion é descrito como qualquer coisa como uma HD 2600 XT, o que dará 5000 3dmarks 2006.
Ha aqui uma ligeira diferença de 600%.

E esta primeira iteração do Fusion poderá nao ser muito atractiva, mas quando começarem a misturar unidades funcionais entre o CPU e o GPU e a lançarem extensões que vejam o CPU+GPU como um só a coisa muda muito de figura.

Bom, mas tudo tem que ter um início. Nao se pode pedir á primeira o impossível.

É, mas também há aqui outra "pequena" diferença.

- O IGP da Nvidia está no mercado daqui a dois meses.
- O "Fusion" estará no mercado daqui a dois anos (se não houver atrasos... :-D).

Além disso, como já se viu com as HD 2xxx, 3DMarks é uma coisa, mas depois quando chega a altura de jogar "jogos", a melodia muda de tom...


Ah, e quem especulou sobre essa comparação com a HD 2600 XT foi o B3D, não o homem da AMD.
 
É, mas também há aqui outra "pequena" diferença.

- O IGP da Nvidia está no mercado daqui a dois meses.
- O "Fusion" estará no mercado daqui a dois anos (se não houver atrasos... :-D).

Além disso, como já se viu com as HD 2xxx, 3DMarks é uma coisa, mas depois quando chega a altura de jogar "jogos", a melodia muda de tom...

Estamos em Setembro de 2007.
A noticia fala em fins de 2008 inícios de 2009.

Indo pela pior perspectiva de inicio de 2009 dá 1 ano e 4/6 meses.
Tamos assim tao longe? 5000 3dmarks 2006 daqui a 1 ano e meio nao me parece nada mau.
Claro que nao será para jogar o ultimo jogo xpto ninguem esperará isso.

O homem da AMD falou de "mid to high range". Podia ir buscar um valor intermedio entre uma HD 2600Pro (4.5K) e uma HD 2900 XT (12K) que daria 8000 3dmarks 2006 +/-, mas ate faço uma analise por baixo de 5000 3dmark 2006 (HD 2600XT) como no artigo da B3D.
Juntar a isto DX_10.1, UVD2.0, HDMI, DysplayPort oferece uma capacidade multimédia top-end e uma capacidade gaming low-end. Isto é, abre caminho a um novo segmento que ate agora não existia. Se for bem publicitado poderá dar os seus frutos no mercado.

A nivel de custos nao me parecem assim tao elevados. Basicamente parece ser um RV630 com melhores tecnologias (DX_10.1, etc) e feito a 45nm. Se ja a 65nm o chip é minúsculo (mais pequeno que o de uma 8400) em 45nm então será uma coisa micro-minúscula. Entao se ao lado tiver um quad-core mal se vai ver :D
 
Última edição:
Estamos em Setembro de 2007.
A noticia fala em fins de 2008 inícios de 2009.

Indo pela pior perspectiva de inicio de 2009 dá 1 ano e 4/6 meses.
Tamos assim tao longe? 5000 3dmarks 2006 daqui a 1 ano e meio nao me parece nada mau.
Claro que nao será para jogar o ultimo jogo xpto ninguem esperará isso.

O homem da AMD falou de "mid to high range". Podia ir buscar um valor intermedio entre uma HD 2600Pro (4.5K) e uma HD 2900 XT (12K) que daria 8000 3dmarks 2006 +/-, mas ate faço uma analise por baixo de 5000 3dmark 2006 (HD 2600XT) como no artigo da B3D.
Juntar a isto DX_10.1, UVD2.0, HDMI, DysplayPort oferece uma capacidade multimédia top-end e uma capacidade gaming low-end. Isto é, abre caminho a um novo segmento que ate agora não existia. Se for bem publicitado poderá dar os seus frutos no mercado.

A nivel de custos nao me parecem assim tao elevados. Basicamente parece ser um RV630 com melhores tecnologias (DX_10.1, etc) e feito a 45nm. Se ja a 65nm o chip é minúsculo (mais pequeno que o de uma 8400) em 45nm então será uma coisa micro-minúscula. Entao se ao lado tiver um quad-core mal se vai ver :D

Porque é que insistes em comparar a HD 2600 XT com a 8400 GS ?
As 8400 GS/8500 GT competem com as HD 2400 Pro/XT.
As concorrentes das HD 2600 XT são as 8600 GT/8600 GTS.
 
Ora bem há 2 anos atrás o mid-end era uma X1600XT e o mid-high end era uma X1800XL.
Os IGPs de hoje não têm sequer 1/4 da performance de uma X1600XT.
Se isto se confirmar estamos perante um salto gigante na performance dos IGPs, tanto em portáteis como em desktops.





blastarr essa história dos híbridos "nunca serão competitivos", "nunca serão performantes", "nunca etc etc" já a repetiste tantas vezes que nem sei para que é que a queres tanto meter na cabeça do pessoal. Ainda por cima com uma teoria cheia de falhas:

1- Preços =» Lógica simples: fica mais barato produzir um chip (híbrido) do que 2 ou 3 (CPU+GPU+bridge).
Mesmo que o chip híbrido seja mais caro inicialmente, ao universalizar todas as fábricas para a produção um só híbrido, poupam milhões na standardização da calibragem e manutenção das mesmas.
Menores custos de produção e desenvolvimento (ao limitar as variações possíveis entre plataformas). A AMD e a Intel ainda por cima esfregam as mãos porque quando queremos uma coisa temos que comprar o pacote inteiro, e quando queremos fazer um upgrade ao CPU, lá somos "obrigados" a comprar mais um GPU.

2- Um IGP com performance ao nível da 8400GS é irrisório perante o salto em performance de IGPs que o Fusion promete.

3- Não são "workloads fundamentalmente diferentes". Nada disso. Ao longo dos anos as gráficas e os cpus têm estado a convergir em funções e arquitectura. Um bom exemplo disso é o facto de as gráficas apresentarem cada vez mais capacidade de fazer cálculo generalizado (GPGPU) e os CPUs a cada geração apresentarem suporte para novas instruções orientadas para multimédia (SSE, 3DNow!, etc).

4- "Quem dera" a um GPU ter duas unidade de virgula flutuante a 3Ghz embutidas em certos renders, e "quem dera" a um CPU ter incluído uma centena de stream processors para situações de cálculo paralelo. É uma questão de maximização da eficiência dos transístores e gates do chip. É mais um passo para aproximar, em performance, os valores máximos práticos dos valores máximos teóricos.

5- Não ouses sequer comparar a tecnologia de produção de chips que tinhamos nos anos 80 com aquela que vamos ter nos anos 201x.
Na altura foi uma necessidade separar tudo porque os yields de chips "grandes" eram proibitivos. Hoje em dia temos unidades de redundância intrínsecas em todos os chips mais complexos que, a par com uma enormidade de técnicas de produção que entretanto foram desenvolvidas, nos permitem ter chips com quase mil milhões de transístores com uma taxa de sucesso muito grande.



Mas pronto, tu já sabes que estás a remar contra a maré.
Já todas as companhias sabem que o futuro está num único chip com todo o tipo de processamento embutido.
A IBM, Toshiba e Sony já chegaram a essa conclusão (e já abriram caminho com o Cell, que foi arquitectado desde o início para ser um chip "faz-tudo"); a AMD já lá chegou e por isso é que avançou com o Fusion; a Intel também já o sabe e vai abrir caminho com o Nehalem.


Já todos os mais informados sabem porquê e para onde é que a industria vai avançar.
Menos tu, que continuas a tentar impingir no fórum uma opinião de "velho do restelo" cheia de "nuncas" e demasiado baseado no que temos agora e no que tínhamos há 20 anos atrás.


É preciso saber pensar para a frente.. senão neste momento nenhum de nós estava sequer a ter esta discussão, só porque houve um palerma há uns anos atrás que disse que "nunca na vida as pessoas irão precisar de um computador pessoal". Ou porque outro palerma pegou numa disquete de 1.4Mb e disse "nunca na vida as pessoas irão precisar de mais capacidade do que isto".
(nota: repara que ambas as frases "célebres" dos gajos começam por "nunca"..)
 
Última edição:
Para mim o Fusion não é mais que o antecipar do inevitável. Apenas poderá fracassar por eventualmente estar demasiado à frente no tempo e ter que competir com CPU e GPU dedicados.

Vendo como os CPU's cada vez mais têm SSEx e extensões afins e que os GPU's são cada vez mais programáveis, assemelhando-se a CPU's (não necessariamente X86), parece-me apenas uma questão de tempo até que ambos se encontrem no meio.
 
4- "Quem dera" a um GPU ter duas unidade de virgula flutuante a 3Ghz embutidas em certos renders, e "quem dera" a um CPU ter incluído uma centena de stream processors para situações de cálculo paralelo. É uma questão de maximização da eficiência dos transístores e gates do chip.

Que comédia... :-D

Um stream processor (e qualquer ALU gráfica moderna desde há anos) >>é<< uma unidade de cálculos de vírgula flutuante.
E actualmente já chegam aos 1.5GHz em GPU's de 90nm com quase 700 Milhões de transístores, nada mau, hein ? :P


Ah, e vai educar-te um bocado sobre porque é que são workloads completamente diferentes.
A tua lenga-lenga de que estão a aparecer pontos de convergência nada diz acerca dos usos de cada tipo de software, nem da partilha do acesso à memória por buses muito mais estreitos a memória bem mais lenta, tolerância à latência do processamento de gráficos vs falta de tolerância do software general purpose a essa mesma latência, etc, etc, etc.
Qualquer cálculo em GPU's (essencialmente, processadores de vírgula flutuante dedicados a gráficos) nunca chegará ao potencial de cálculos de números inteiros de uma CPU, e vice-versa.

É essa a diferença matemática fundamental, mas que tu confundes com GPGPU, ou a capacidade de programar com mais facilidade diferentes tipo de aplicações de vírgula flutuante.



Quanto à performance.
Qual o interesse de ter a "suposta" performance da HD 2600 XT numa CPU, na perspectiva da AMD ?
Matar todo o mercado das suas GPU's low-end em princípios de 2009 (o segmento que lhes dá dinheiro a sério, como em qualquer outro fabricante de GPU's) ?

A eles interessa-lhes vender mais chips, de preferência com duas margens de lucro separadas. Não lhes interessa vender um só chip, cuja margem de lucro única está sujeita a esmagamento numa eventual guerra de preços com a concorrência (veja-se o que a AMD perdeu desde que começou a guerra com a Intel há um ano).
 
Última edição:
Que comédia... :-D

Um stream processor (e qualquer ALU gráfica moderna desde há anos) >>é<< uma unidade de cálculos de vírgula flutuante.
E actualmente já chegam aos 1.5GHz em GPU's de 90nm com quase 700 Milhões de transístores, nada mau, hein ? :P


Ah, e vai educar-te um bocado sobre porque é que são workloads completamente diferentes.
A tua lenga-lenga de que estão a aparecer pontos de convergência nada diz acerca dos usos de cada tipo de software, nem da partilha do acesso à memória por buses muito mais estreitos a memória bem mais lenta, etc, etc, etc.
Qualquer cálculo em GPU's (essencialmente, processadores de vírgula flutuante dedicados a gráficos) nunca chegará ao potencial de cálculos de números inteiros de uma CPU, e vice-versa.

É essa a diferença fundamental, mas que tu confundes com GPGPU, ou a capacidade de programar com mais facilidade diferentes tipo de aplicações de vírgula flutuante.




Pronto, viste que perdeste a razão e passaste à defesa (que é como quem diz: "vou partir para o gozo para ver se isto descamba).

Para isso pegaste numa fracção mínima do meu post, tiraste-lhe uma interpretação errónea e decidiste fazer um post de 3 parágrafos a gozar com uma porcaria de uma frase, a ver se desvias as atenções da discussão principal.
Pelo meio ainda meteste uns elementos de picanço de baixo nível, tipo "que comédia", "vai educar-te um bocado" e "a tua lenga-lenga", mais uma vez para ver se isto descamba e se a discussão principal se evapora.

BTW, mas que grande asneira, dizer que um stream processor de uma placa gráfica é exactamente a mesma coisa que uma unidade FP de um CPU..
 
Última edição pelo moderador:
BTW, mas que grande asneira, dizer que um stream processor de uma placa gráfica é exactamente a mesma coisa que uma unidade FP de um CPU..

Se não sabes do que falas e vens contradizer-me apenas para o fazer, és tu que estás a fugir ao tópico, não eu.

E sim, é uma grande asneira.
Uma unidade FP de uma CPU não funciona sozinha, o software continua a ser x86, ou *****, etc, etc. As unidades SSE/SSE2/SSE3/SSE4 e VMX/AltiVEC são apenas grupos de extensões à arquitectura-base. O software que as aproveita não funciona sem o resto da CPU e respectivas instruções.

No caso de uma GPU, os stream processors são a base da arquitectura (do hardware, pelo menos), e interpretam uma API de software (DirectX, OpenGL, CUDA) completamente separada.

Por isso é que uma gráfica funciona nativamente com qualquer dessas API's, enquanto uma CPU só pode funcionar nativamente com software escrito para a arquitectura subjacente (ou é x86, ou é PPC, ou é ARM, etc. Tudo o resto só funciona por emulação de software, com a correspondente penalização na performance).
 
Última edição:
Back
Topo