1. Este site usa cookies. Ao continuar a usar este site está a concordar com o nosso uso de cookies. Saber Mais.

Gráfica Larrabee is late 09 or early 2010 -> Cancelado

Discussão em 'Novidades Hardware PC' iniciada por Nagashi, 11 de Abril de 2009. (Respostas: 55; Visualizações: 8361)

  1. Nagashi

    Nagashi Power Member

    [​IMG]


    Estou para ver o que vai saír destes Larrabee
     
  2. Nemesis11

    Nemesis11 Power Member

    Não sei se o Larrabee vai ser interessante como Gpu. Até pode não ser, mas talvez seja mais interessante noutras áreas.

    Este slide de à uns dias, da IDF Beijing tem vários pontos curiosos, sem recompilação ou modificação de código (o que acho estranho, por haver novas instruções. Lrbni)

    [​IMG]

    Isto porque, tem benchamarks do Nehalem-EX, que é o Nehalem com 8 cores e parece que no mesmo período, deverá haver um Larrabee com 32 cores.

    Depois, tem estimativas de um futuro Cpu a 3 Ghz ( Westmere-EX? Sandy Bridge? ) e até um Larrabee de 16 cores parece bater este futuro cpu, neste tipo de calculos.

    Por fim, o Larrabee parece escalar bem, com o aumento de cores.

    Pena os benchmarks não serem mais detalhados, mas é o que há por agora.
     
    Última edição: 11 de Abril de 2009
  3. vascobailao

    vascobailao To fold or to FOLD?

    realmente, daqui a uns anos vamos ter processadores graficos em vez de CPUs comuns.. ate porque têm um nivel muito superior de processamento, nota-se muito ja no folding ate.
     
  4. JPgod

    JPgod Moderador
    Staff Member

    errado. Veja BEM qual é a base de comparação.

    No gráfico do Larrable é o escalamento perante UM CORE LARRABLE! Os gráficos não são comparáveis entre si.
     
  5. Nemesis11

    Nemesis11 Power Member

    Tens razão. Raios, não reparei no titulo dos gráficos. Também podiam ter colocado cores diferentes nos dois gráficos.

    Bem, pelo menos dá para ver que ele escala linearmente e temos gráficos de um futuro cpu da Intel.
     
  6. Nemesis11

    Nemesis11 Power Member

  7. petersaints

    petersaints Power Member

    Também aquela escala 1 - 10 - 100 é uma bela treta! Mas sim dá a ideia que escalam linearmente.
     
  8. Mk Pt

    Mk Pt Power Member

    Quanto a haver suporte de algumas empresas ao larrabee não será de estranhar, como diz no post inicial, a força do dinheiro da Intel abre muitas portas que de outra maneira estariam fechadas..


    Mas apesar de acreditar que se a Intel vai apostar a serio neste mercado das gráficas, vai em força e provavelmente estará disposta a não obter grande retorno inicial [um pouco à imagem da Sony quando apostou no segmento das consolas] para conseguir impor-se, é muito dificil acreditar num sucesso [pelo menos no inicio]..
    As gráficas ATI e Nvidia actuais já são muito poderosas, e se a passagem 4870-> 4890 foi apenas optimização do processo de fabrico, da configuração da placa e mais um ou outro tweak e permitiu bons ganhos.. O que será, por exemplo, uma 4890 a 40 nm [mais clocks, menos temp e menos consumo] com bus de 512 bit e mais meia duzia de rop's e texture units.......????

    A próxima gen de gráficas com os 40 nm vão ter ganhos imensos face às actuais placas, tanto em perfomance como em consumo, vai ser muito dificil à Intel ficar a uma distância não muito grande, quanto mais concorrer directamente..
     
  9. lucky_smile

    lucky_smile Banido

    Eu continuo a duvidar muito que o CPU+IGP seja um sério concorrente ao mercado das placas gráficas discretas (pelo menos a 5 anos). Parece-me sim um excelente produto para o mercado empresarial e Office pc's.

    E também não me parece que este seja realmente um GPU para o mercado discrete...
     
  10. __Miguel_

    __Miguel_ Power Member

    CPU+IGP seria óptimo de ter se pudesse ser feito "seamlessly" o que a NVIDIA tentou com o HybridPower (digo "tentou" porque os novos chipsets não parecem trazer esta capacidade): o processamento de imagem passar do IGP para o GPU sem ser preciso desligar o PC. Com qualquer placa gráfica, de qualquer fabricante.

    De resto, tenho de concordar que acho no mínimo complicado um IGP substituir um GPU... O diferencial de processamento potencial é simplesmente demasiado grande... Mesmo considerando um eventual interconnect de EXTREMA velocidade, e overhead e latências reduzidas (o que por si só já é complicado), convém lembrar que os GPUs actuais são capazes de mover quantidades massivas de informação em cada ciclo de relógio, bem para cima dos 100GBps, que até hoje só os bus dedicados à memória conseguem acompanhar.

    Seriam precisos uns 9 a 12 canais de memória (estou a ter em conta a largura de banda de memória disponível nos i7, que creio andar na casa dos 33GBps) e quantidades massivas de RAM para conseguir duplicar a largura de banda disponível nos GPUs.

    E, claro, não esquecer os TDPs dos GPUs (não raro passam dos 150W por si só, teria de se adicionar a este TDP o do CPU propriamente dito), dificilmente comportável com a forma de arrefecimento disponível nos CPUs hoje em dia.

    Em suma, substituir o IGP, acredito que sim. Aliás, creio que a Intel já fez um chip deste género para a Apple, no Air (o Northbridge está no mesmo PCB do CPU, embora numa die separada; só não me lembro se tem IGP embutido ou não). Agora, substituir o GPU, só se o CPU "tomar de assalto" o GPU (tomando características de GPU intrinsecamente) e for capaz de ser MUITAS vezes mais eficiente no processamento de dados que um GPU. Caso contrário, vão-se manter separados.

    Quanto ao Larabee, esperemos que não seja um flop total. O mercado das gráficas está a precisar de um abanão, só dois concorrentes dignos desse nome não tem piada (e, tecnicamente, poder-se-á até falar em potencial duopólio). Comparado com o que estou habituado (dezenas ou centenas de processadores numa só placa) parece um bocado under-powered, e o x86 não é propriamente conhecido pela sua facilidade de processamento (tem bastante mais overhead do que ARM, por exemplo), mas é radicalmente novo, e se calhar a Intel até encontrou uma forma curiosa de espremer o x86 até aos seus limites em gráficos.

    A ver vamos, e em especial se a arquitectura até é boa, mas a Intel estraga tudo com os drivers (ou ausência deles, neste caso, que vem sendo crónico desde que a Intel fabrica placas gráficas, integradas ou não)... :p Sorry, mas não podia deixar escapar esta... hehehe

    Cumps.

    Miguel
     
  11. Nemesis11

    Nemesis11 Power Member

    Talvez não seja necessário muitos canais de memória para um IGP ser competitivo.
    Uma solução pode ser colocar X memória no mesmo package do CPU+IGP. Não sei é se isso será possível nos próximos tempos.

    Quanto ao Larrabee, toda a gente o discute do ponto de vista de ser um GPU e no fim não sei até que ponto isso será importante.
    Por exemplo a Dreamworks vai usar para rendering.
     
  12. __Miguel_

    __Miguel_ Power Member

    Só falei nos múltiplos canais de memória como resposta ao argumento da eventualidade dos IGPs poderem substituir, ou pelo menos competir, com os GPUs discretos.

    A ATI e a NVIDIA já mostraram que os IGPs podem ser muito competitivos sem gastarem muita energia, e a utilizarem memória do sistema. E podem ser ainda mais competitivos, de certeza. Mas um IGP com "sumo" suficiente para fazer frente a um GPU é mais complicado.

    Já existem soluções assim. Não no mesmo package, mas por exemplo o 780G tem um acesso dedicado a memória, chamado SidePort. E já existia antes, embora não me lembra que alguma vez tivesse sido verdadeiramente usada. Estranhamente, o aumento em performance com Sideport não é nada de especial, mas provavelmente deve ter a ver com a questão da partilha simultânea da memória de sistema.

    Cumps.

    Miguel
     
  13. Nemesis11

    Nemesis11 Power Member

    A minha ideia de IGP ser competitivo com Gpu discretos seria uma solução parecida com o Gpu da Ati na Xbox360, em que tem 10 MB de Dram no mesmo package e a bandwidth é de 256 GB/s.

    Se fosse possível ter mais Dram do que 10 MB, um IGP poderia ser competitivo com um Gpu discreto.

    Não é algo que seja possível nos próximos tempos, mas......
     
  14. __Miguel_

    __Miguel_ Power Member

    Isso tem duas coisas a seu contra...

    Por um lado, a cache (memória, genericamente falando) já é um dos maiores consumidores de espaço e número de transístores de um CPU. Se não me engana, cerca de 75% da área de um C2D/C2Q é dedicada às quantidades massivas de cache do CPU, e mesmo assim são só pouco mais de 12MB nas versões maiores (pouco mais por causa da L1, embora seja irrisória em comparação com a L2). Mesmo nos Nehalem/i7 foi impossível meter mais cache por causa do tamanho descomunal com que o CPU ficaria.

    Ao mesmo tempo, quantidades muito grandes de memória (ou muitas unidades dedicadas à lógica, no fim vai dar ao mesmo) aumentam exponencialmente a complexidade de um chip, o seu tamanho e, em última análise, os yields. Basta ver o que aconteceu com o colosso G200, com mil milhões de transístores. No início os yields andavam pelas ruras da amargura, mesmo com uma tecnologia madura (65nm). Provavelmente a migração para os 32nm permitirá aumentar a memória disponível num CPU, mas torna-se complicado, ainda assim.

    Quer-me parecer que, enquanto não se começar a falar de camadas de processamento num CPU (chips em cima uns dos outros, em verdadeiros puzzles 3D) não será possível incorporar memória dedicada para o IGP nos CPUs. Ou pelo menos grandes quantidades. E resta saber se será recomendável ou desejável...

    Cumps.

    Miguel
     
  15. Nagashi

    Nagashi Power Member

    Intel Larrabee’s x86 Compatibility Is Drawback – Chief Scientist of Nvidia
    Despite the fact that Intel Corp.’s code-named Larrabee discrete graphics processing unit (GPU) largely remains a mystery, Nvidia Corp. constantly criticizes Intel’s technology and predicts the lack of its business success. According to Nvidia, x86 instruction set compatibility will hardly help Larrabee to provide benefits and will also not allow Intel to create a truly high-performance graphics chip.
    “Intel’s chip is lugging along this x86 instruction set, and there is a tax you have to pay for that. I think their argument is mostly a marketing thing,” said William Dally, chief scientist at Nvidia, in an interview with the New York Times news-paper.
    Intel claims that compatibility with x86 instructions will help Larrabee to better suit for the so-called general purpose processing on graphics processing units (GPGPU), including calculations of physics effects, artificial intelligence and so on. However, since x86 processing cores are larger in terms of physical dimension compared to proprietary cores inside ATI Radeon or Nvidia GeForce GPUs, the number of such cores will be lower, hence, total horsepower of Larrabee may be lower compared to traditional GPUs that will compete with them.
    It is interesting to note that ATI, graphics products group of Advanced Micro Devices (which primary business is creation of microprocessors) also does not see many benefits of x86 for graphics. According to the company, at this time it makes sense to continue using proprietary cores incompatible with x86 commands.
    Intel did not react on the comments issued by Nvidia.


    Fonte


     
  16. Nemesis11

    Nemesis11 Power Member

  17. blastarr

    blastarr Power Member

    Este marketing da Intel é hilariante.
    Colocam uns quantos efeitos de partículas e "motion blur" a mais numa screenshot obscura (que nem se sabe se é em tempo real, ou um mero render off-line) e dizem que a "competição" não vai conseguir fazer melhor do que "Y", daqui a "X" tempo (quando o "Larrabee" chegar finalmente, daqui a pelo menos um ano)... :rolleyes:
    Ridículo.
     
  18. Caped Crusader

    Caped Crusader Power Member

    completamente. é mesmo de rir.
     
  19. Nagashi

    Nagashi Power Member

    Cá para mim isto vai ser um grande FLOP.
     
  20. DragonspiritPT

    DragonspiritPT Power Member

    A imagem que supostamente é do Larrabee é brutal mesmo, mas duvido muito que possa vir a ser cerdade. Esta placa ainda nem saiu e já fica atrás das concorrentes. Ainda por cima Intel, que têm mostrado umas gráficas integradas péssimas, (a GMA965 no Unreal Tournament a 1280 mama-se toda, pra ai 20fps e no COD4 tudo min 640*480 dá também 20-30).
     

Partilhar esta Página