Gráfica Larrabee is late 09 or early 2010 -> Cancelado

Nagashi

Power Member
larrabee.jpg


Gelsinger, Senior VP confirms
The Larrabee graphics wafer is back, and Gelsinger claims that it is in very good shape. To Pat Gelsinger, Senior VP at Intel also added that Intel plans to have this product in the market in late 2009 or early 2010. Pat was talking about “first discrete graphics products” and the slide, even being so small confirms the claim.

Intel is currently testing and evaluating Larrabee silicon in a lab, and at a the game developers conference last month, Intel showed C++ development library to developers. Naturally Intel claims that everyone is super excited as you can do vector operations much faster, but this is something to be seen.

At this time Intel wants and they want feedback from the developer community and has developed tools for developers that should to help them selling the Larrabee success story, naturally only if all works well.

If you are into graphics, there is nothing you should be worried about as Intel is still a long way from convincing developers and the rest of the world to program for its chips., Intel uses a completely different approach compared to Nvidia and ATI. Since Nvidia and ATI are here for a while, Intel will have hell of a job to convince the community but we are sure that money will force many developers to consider Intel’s way of solving the graphics problem, especially in recession time.

Larrabee might make some impact in the graphics market, but only in late 2010 and of course only if it works like a charm from day one, which we will believe when we see it.

Saying Larrabee will be an instant success would be as brave as saying that Nvidia's first X86 would be the best CPU ever.



Fonte


Estou para ver o que vai saír destes Larrabee
 
Não sei se o Larrabee vai ser interessante como Gpu. Até pode não ser, mas talvez seja mais interessante noutras áreas.

Este slide de à uns dias, da IDF Beijing tem vários pontos curiosos, sem recompilação ou modificação de código (o que acho estranho, por haver novas instruções. Lrbni)

61458132.png


Isto porque, tem benchamarks do Nehalem-EX, que é o Nehalem com 8 cores e parece que no mesmo período, deverá haver um Larrabee com 32 cores.

Depois, tem estimativas de um futuro Cpu a 3 Ghz ( Westmere-EX? Sandy Bridge? ) e até um Larrabee de 16 cores parece bater este futuro cpu, neste tipo de calculos.

Por fim, o Larrabee parece escalar bem, com o aumento de cores.

Pena os benchmarks não serem mais detalhados, mas é o que há por agora.
 
Última edição:
realmente, daqui a uns anos vamos ter processadores graficos em vez de CPUs comuns.. ate porque têm um nivel muito superior de processamento, nota-se muito ja no folding ate.
 
Depois, tem estimativas de um futuro Cpu a 3 Ghz ( Westmere-EX? Sandy Bridge? ) e até um Larrabee de 16 cores parece bater este futuro cpu, neste tipo de calculos.

Por fim, o Larrabee parece escalar bem, com o aumento de cores.

Pena os benchmarks não serem mais detalhados, mas é o que há por agora.

errado. Veja BEM qual é a base de comparação.

No gráfico do Larrable é o escalamento perante UM CORE LARRABLE! Os gráficos não são comparáveis entre si.
 
errado. Veja BEM qual é a base de comparação.

No gráfico do Larrable é o escalamento perante UM CORE LARRABLE! Os gráficos não são comparáveis entre si.

Tens razão. Raios, não reparei no titulo dos gráficos. Também podiam ter colocado cores diferentes nos dois gráficos.

Bem, pelo menos dá para ver que ele escala linearmente e temos gráficos de um futuro cpu da Intel.
 
Tens razão. Raios, não reparei no titulo dos gráficos. Também podiam ter colocado cores diferentes nos dois gráficos.

Bem, pelo menos dá para ver que ele escala linearmente e temos gráficos de um futuro cpu da Intel.

Também aquela escala 1 - 10 - 100 é uma bela treta! Mas sim dá a ideia que escalam linearmente.
 
Quanto a haver suporte de algumas empresas ao larrabee não será de estranhar, como diz no post inicial, a força do dinheiro da Intel abre muitas portas que de outra maneira estariam fechadas..


Mas apesar de acreditar que se a Intel vai apostar a serio neste mercado das gráficas, vai em força e provavelmente estará disposta a não obter grande retorno inicial [um pouco à imagem da Sony quando apostou no segmento das consolas] para conseguir impor-se, é muito dificil acreditar num sucesso [pelo menos no inicio]..
As gráficas ATI e Nvidia actuais já são muito poderosas, e se a passagem 4870-> 4890 foi apenas optimização do processo de fabrico, da configuração da placa e mais um ou outro tweak e permitiu bons ganhos.. O que será, por exemplo, uma 4890 a 40 nm [mais clocks, menos temp e menos consumo] com bus de 512 bit e mais meia duzia de rop's e texture units.......????

A próxima gen de gráficas com os 40 nm vão ter ganhos imensos face às actuais placas, tanto em perfomance como em consumo, vai ser muito dificil à Intel ficar a uma distância não muito grande, quanto mais concorrer directamente..
 
Eu continuo a duvidar muito que o CPU+IGP seja um sério concorrente ao mercado das placas gráficas discretas (pelo menos a 5 anos). Parece-me sim um excelente produto para o mercado empresarial e Office pc's.

E também não me parece que este seja realmente um GPU para o mercado discrete...
 
Eu continuo a duvidar muito que o CPU+IGP seja um sério concorrente ao mercado das placas gráficas discretas (pelo menos a 5 anos). Parece-me sim um excelente produto para o mercado empresarial e Office pc's.

E também não me parece que este seja realmente um GPU para o mercado discrete...
CPU+IGP seria óptimo de ter se pudesse ser feito "seamlessly" o que a NVIDIA tentou com o HybridPower (digo "tentou" porque os novos chipsets não parecem trazer esta capacidade): o processamento de imagem passar do IGP para o GPU sem ser preciso desligar o PC. Com qualquer placa gráfica, de qualquer fabricante.

De resto, tenho de concordar que acho no mínimo complicado um IGP substituir um GPU... O diferencial de processamento potencial é simplesmente demasiado grande... Mesmo considerando um eventual interconnect de EXTREMA velocidade, e overhead e latências reduzidas (o que por si só já é complicado), convém lembrar que os GPUs actuais são capazes de mover quantidades massivas de informação em cada ciclo de relógio, bem para cima dos 100GBps, que até hoje só os bus dedicados à memória conseguem acompanhar.

Seriam precisos uns 9 a 12 canais de memória (estou a ter em conta a largura de banda de memória disponível nos i7, que creio andar na casa dos 33GBps) e quantidades massivas de RAM para conseguir duplicar a largura de banda disponível nos GPUs.

E, claro, não esquecer os TDPs dos GPUs (não raro passam dos 150W por si só, teria de se adicionar a este TDP o do CPU propriamente dito), dificilmente comportável com a forma de arrefecimento disponível nos CPUs hoje em dia.

Em suma, substituir o IGP, acredito que sim. Aliás, creio que a Intel já fez um chip deste género para a Apple, no Air (o Northbridge está no mesmo PCB do CPU, embora numa die separada; só não me lembro se tem IGP embutido ou não). Agora, substituir o GPU, só se o CPU "tomar de assalto" o GPU (tomando características de GPU intrinsecamente) e for capaz de ser MUITAS vezes mais eficiente no processamento de dados que um GPU. Caso contrário, vão-se manter separados.

Quanto ao Larabee, esperemos que não seja um flop total. O mercado das gráficas está a precisar de um abanão, só dois concorrentes dignos desse nome não tem piada (e, tecnicamente, poder-se-á até falar em potencial duopólio). Comparado com o que estou habituado (dezenas ou centenas de processadores numa só placa) parece um bocado under-powered, e o x86 não é propriamente conhecido pela sua facilidade de processamento (tem bastante mais overhead do que ARM, por exemplo), mas é radicalmente novo, e se calhar a Intel até encontrou uma forma curiosa de espremer o x86 até aos seus limites em gráficos.

A ver vamos, e em especial se a arquitectura até é boa, mas a Intel estraga tudo com os drivers (ou ausência deles, neste caso, que vem sendo crónico desde que a Intel fabrica placas gráficas, integradas ou não)... :p Sorry, mas não podia deixar escapar esta... hehehe

Cumps.

Miguel
 
CPU+IGP seria óptimo de ter se pudesse ser feito "seamlessly" o que a NVIDIA tentou com o HybridPower (digo "tentou" porque os novos chipsets não parecem trazer esta capacidade): o processamento de imagem passar do IGP para o GPU sem ser preciso desligar o PC. Com qualquer placa gráfica, de qualquer fabricante.

De resto, tenho de concordar que acho no mínimo complicado um IGP substituir um GPU... O diferencial de processamento potencial é simplesmente demasiado grande... Mesmo considerando um eventual interconnect de EXTREMA velocidade, e overhead e latências reduzidas (o que por si só já é complicado), convém lembrar que os GPUs actuais são capazes de mover quantidades massivas de informação em cada ciclo de relógio, bem para cima dos 100GBps, que até hoje só os bus dedicados à memória conseguem acompanhar.

Seriam precisos uns 9 a 12 canais de memória (estou a ter em conta a largura de banda de memória disponível nos i7, que creio andar na casa dos 33GBps) e quantidades massivas de RAM para conseguir duplicar a largura de banda disponível nos GPUs.

E, claro, não esquecer os TDPs dos GPUs (não raro passam dos 150W por si só, teria de se adicionar a este TDP o do CPU propriamente dito), dificilmente comportável com a forma de arrefecimento disponível nos CPUs hoje em dia.

Em suma, substituir o IGP, acredito que sim. Aliás, creio que a Intel já fez um chip deste género para a Apple, no Air (o Northbridge está no mesmo PCB do CPU, embora numa die separada; só não me lembro se tem IGP embutido ou não). Agora, substituir o GPU, só se o CPU "tomar de assalto" o GPU (tomando características de GPU intrinsecamente) e for capaz de ser MUITAS vezes mais eficiente no processamento de dados que um GPU. Caso contrário, vão-se manter separados.

Quanto ao Larabee, esperemos que não seja um flop total. O mercado das gráficas está a precisar de um abanão, só dois concorrentes dignos desse nome não tem piada (e, tecnicamente, poder-se-á até falar em potencial duopólio). Comparado com o que estou habituado (dezenas ou centenas de processadores numa só placa) parece um bocado under-powered, e o x86 não é propriamente conhecido pela sua facilidade de processamento (tem bastante mais overhead do que ARM, por exemplo), mas é radicalmente novo, e se calhar a Intel até encontrou uma forma curiosa de espremer o x86 até aos seus limites em gráficos.

A ver vamos, e em especial se a arquitectura até é boa, mas a Intel estraga tudo com os drivers (ou ausência deles, neste caso, que vem sendo crónico desde que a Intel fabrica placas gráficas, integradas ou não)... :p Sorry, mas não podia deixar escapar esta... hehehe

Cumps.

Miguel

Talvez não seja necessário muitos canais de memória para um IGP ser competitivo.
Uma solução pode ser colocar X memória no mesmo package do CPU+IGP. Não sei é se isso será possível nos próximos tempos.

Quanto ao Larrabee, toda a gente o discute do ponto de vista de ser um GPU e no fim não sei até que ponto isso será importante.
Por exemplo a Dreamworks vai usar para rendering.
 
Talvez não seja necessário muitos canais de memória para um IGP ser competitivo.
Só falei nos múltiplos canais de memória como resposta ao argumento da eventualidade dos IGPs poderem substituir, ou pelo menos competir, com os GPUs discretos.

A ATI e a NVIDIA já mostraram que os IGPs podem ser muito competitivos sem gastarem muita energia, e a utilizarem memória do sistema. E podem ser ainda mais competitivos, de certeza. Mas um IGP com "sumo" suficiente para fazer frente a um GPU é mais complicado.

Uma solução pode ser colocar X memória no mesmo package do CPU+IGP. Não sei é se isso será possível nos próximos tempos.
Já existem soluções assim. Não no mesmo package, mas por exemplo o 780G tem um acesso dedicado a memória, chamado SidePort. E já existia antes, embora não me lembra que alguma vez tivesse sido verdadeiramente usada. Estranhamente, o aumento em performance com Sideport não é nada de especial, mas provavelmente deve ter a ver com a questão da partilha simultânea da memória de sistema.

Cumps.

Miguel
 
Só falei nos múltiplos canais de memória como resposta ao argumento da eventualidade dos IGPs poderem substituir, ou pelo menos competir, com os GPUs discretos.

A ATI e a NVIDIA já mostraram que os IGPs podem ser muito competitivos sem gastarem muita energia, e a utilizarem memória do sistema. E podem ser ainda mais competitivos, de certeza. Mas um IGP com "sumo" suficiente para fazer frente a um GPU é mais complicado.


Já existem soluções assim. Não no mesmo package, mas por exemplo o 780G tem um acesso dedicado a memória, chamado SidePort. E já existia antes, embora não me lembra que alguma vez tivesse sido verdadeiramente usada. Estranhamente, o aumento em performance com Sideport não é nada de especial, mas provavelmente deve ter a ver com a questão da partilha simultânea da memória de sistema.

Cumps.

Miguel

A minha ideia de IGP ser competitivo com Gpu discretos seria uma solução parecida com o Gpu da Ati na Xbox360, em que tem 10 MB de Dram no mesmo package e a bandwidth é de 256 GB/s.

Se fosse possível ter mais Dram do que 10 MB, um IGP poderia ser competitivo com um Gpu discreto.

Não é algo que seja possível nos próximos tempos, mas......
 
Não é algo que seja possível nos próximos tempos, mas......
Isso tem duas coisas a seu contra...

Por um lado, a cache (memória, genericamente falando) já é um dos maiores consumidores de espaço e número de transístores de um CPU. Se não me engana, cerca de 75% da área de um C2D/C2Q é dedicada às quantidades massivas de cache do CPU, e mesmo assim são só pouco mais de 12MB nas versões maiores (pouco mais por causa da L1, embora seja irrisória em comparação com a L2). Mesmo nos Nehalem/i7 foi impossível meter mais cache por causa do tamanho descomunal com que o CPU ficaria.

Ao mesmo tempo, quantidades muito grandes de memória (ou muitas unidades dedicadas à lógica, no fim vai dar ao mesmo) aumentam exponencialmente a complexidade de um chip, o seu tamanho e, em última análise, os yields. Basta ver o que aconteceu com o colosso G200, com mil milhões de transístores. No início os yields andavam pelas ruras da amargura, mesmo com uma tecnologia madura (65nm). Provavelmente a migração para os 32nm permitirá aumentar a memória disponível num CPU, mas torna-se complicado, ainda assim.

Quer-me parecer que, enquanto não se começar a falar de camadas de processamento num CPU (chips em cima uns dos outros, em verdadeiros puzzles 3D) não será possível incorporar memória dedicada para o IGP nos CPUs. Ou pelo menos grandes quantidades. E resta saber se será recomendável ou desejável...

Cumps.

Miguel
 
Intel Larrabee’s x86 Compatibility Is Drawback – Chief Scientist of Nvidia
Despite the fact that Intel Corp.’s code-named Larrabee discrete graphics processing unit (GPU) largely remains a mystery, Nvidia Corp. constantly criticizes Intel’s technology and predicts the lack of its business success. According to Nvidia, x86 instruction set compatibility will hardly help Larrabee to provide benefits and will also not allow Intel to create a truly high-performance graphics chip.
“Intel’s chip is lugging along this x86 instruction set, and there is a tax you have to pay for that. I think their argument is mostly a marketing thing,” said William Dally, chief scientist at Nvidia, in an interview with the New York Times news-paper.
Intel claims that compatibility with x86 instructions will help Larrabee to better suit for the so-called general purpose processing on graphics processing units (GPGPU), including calculations of physics effects, artificial intelligence and so on. However, since x86 processing cores are larger in terms of physical dimension compared to proprietary cores inside ATI Radeon or Nvidia GeForce GPUs, the number of such cores will be lower, hence, total horsepower of Larrabee may be lower compared to traditional GPUs that will compete with them.
It is interesting to note that ATI, graphics products group of Advanced Micro Devices (which primary business is creation of microprocessors) also does not see many benefits of x86 for graphics. According to the company, at this time it makes sense to continue using proprietary cores incompatible with x86 commands.
Intel did not react on the comments issued by Nvidia.


Fonte


http://www.xbitlabs.com/news/video/...y_Is_Drawback__Chief_Scientist_of_Nvidia.html
 
Este marketing da Intel é hilariante.
Colocam uns quantos efeitos de partículas e "motion blur" a mais numa screenshot obscura (que nem se sabe se é em tempo real, ou um mero render off-line) e dizem que a "competição" não vai conseguir fazer melhor do que "Y", daqui a "X" tempo (quando o "Larrabee" chegar finalmente, daqui a pelo menos um ano)... :rolleyes:
Ridículo.
 
Este marketing da Intel é hilariante.
Colocam uns quantos efeitos de partículas e "motion blur" a mais numa screenshot obscura (que nem se sabe se é em tempo real, ou um mero render off-line) e dizem que a "competição" não vai conseguir fazer melhor do que "Y", daqui a "X" tempo (quando o "Larrabee" chegar finalmente, daqui a pelo menos um ano)... :rolleyes:
Ridículo.

completamente. é mesmo de rir.
 
A imagem que supostamente é do Larrabee é brutal mesmo, mas duvido muito que possa vir a ser cerdade. Esta placa ainda nem saiu e já fica atrás das concorrentes. Ainda por cima Intel, que têm mostrado umas gráficas integradas péssimas, (a GMA965 no Unreal Tournament a 1280 mama-se toda, pra ai 20fps e no COD4 tudo min 640*480 dá também 20-30).
 
Back
Topo