Gráfica Intel Arc Discrete GPUs

Nemesis11

Power Member
raja_intel_678x452.png


A saga continua........Agora a Intel anuncia que vai entrar no mercado Gpus dedicados high end. :|

Com o Raja Kuduri como chief arquitect.

On Monday, Intel announced that it had penned a deal with AMD to have the latter provide a discrete GPU to be integrated onto a future Intel SoC. On Tuesday, AMD announced that their chief GPU architect, Raja Koduri, was leaving the company. Now today the saga continues, as Intel is announcing that they have hired Raja Koduri to serve as their own GPU chief architect. And Raja's task will not be a small one; with his hire, Intel will be developing their own high-end discrete GPUs.

Starting from the top and following yesterday’s formal resignation from AMD, Raja Koduri has jumped ship to Intel, where he will be serving as a Senior VP for the company, overseeing the new Core and Visual Computing group. As a chief architect and general manager, Intel is tasking Raja with significantly expanding their GPU business, particularly as the company re-enters the discrete GPU field. Raja of course has a long history in the GPU space as a leader in GPU architecture, serving as the manager of AMD’s graphics business twice, and in between AMD stints serving as the director of graphics architecture on Apple’s GPU team.

Meanwhile, in perhaps the only news that can outshine the fact that Raja Koduri is joining Intel, is what he will be doing for Intel. As part of today’s revelation, Intel has announced that they are instituting a new top-to-bottom GPU strategy. At the bottom, the company wants to extend their existing iGPU market into new classes of edge devices, and while Intel doesn’t go into much more detail than this, the fact that they use the term “edge” strongly implies that we’re talking about IoT-class devices, where edge goes hand-in-hand with neural network inference. This is a field Intel already plays in to some extent with their Atom processors on the GPU side, and their Movidius neural compute engines on the dedicated silicon sign.

However in what’s likely the most exciting part of this news for PC enthusiasts and the tech industry as a whole, is that in aiming at the top of the market, Intel will once again be going back into developing discrete GPUs. The company has tried this route twice before; once in the early days with the i740 in the late 90s, and again with the aborted Larrabee project in the late 2000s. However even though these efforts never panned out quite like Intel has hoped, the company has continued to develop their GPU architecture and GPU-like devices, the latter embodying the massive parallel compute focused Xeon Phi family.

Yet while Intel has GPU-like products for certain markets, the company doesn’t have a proper GPU solution once you get beyond their existing GT4-class iGPUs, which are, roughly speaking, on par with $150 or so discrete GPUs. Which is to say that Intel doesn’t have access to the midrange market or above with their iGPUs. With the hiring of Raja and Intel’s new direction, the company is going to be expanding into full discrete GPUs for what the company calls “a broad range of computing segments.”

Reading between the lines, it’s clear that Intel will be going after both the compute and graphics sub-markets for GPUs. The former of course is an area where Intel has been fighting NVIDIA for several years now with less success than they’d like to see, while the latter would be new territory for Intel. However it’s very notable that Intel is calling these “graphics solutions”, so it’s clear that this isn’t just another move by Intel to develop a compute-only processor ala the Xeon Phi.

https://www.anandtech.com/show/1201...ete-gpus-hires-raja-koduri-as-chief-architect
 
Última edição:
É excelente para o mercado, 2 empresas num mercado tão grande não é a melhor situação. Por mim até podiam haver mais 1 ou 2, concorrência é preciso para as empresas "andarem na linha" (i´m looking at you Nvidia)
 
Mais concorrência é sempre bom para o mercado, pelo menos do nosso ponto de vista (de consumidor).
Mas também depende de que mercado estás a falar. Também me parece que o foco da Intel passará bem mais pelo GPGPU do que propriamente pela jogatana.
 
As mesmas que licenciaram à AMD há uns meses atrás?
A Intel não licenciou nada da AMD.
A Intel apenas pagou para usar gpu's AMD custom nos seus cpu's, nada mais.

Tal como a Sony e Microsoft pagaram e pagam [via royalties] para ter cpu's+gpu's custom AMD mas para os ter nas consolas [Ps4/Ps4 Pro, Xbox One/Xbox One X], a Intel pagou para ter gpu's AMD custom em alguns dos seus próprios cpu's.


A AMD foi parva quando à muitos anos [nisto das tecnologias] vendeu a secção de gpu's mobile à Qualcomm.
Isso sim, vendeu tecnologia e a Qualcomm adquiriu IP/licenças que lhe deu uma enorme vantagem a nível de gpu's mobile.

O que a Intel agora licenciou da AMD é o mero uso de gpu's custom.
Qualquer tentativa da Intel de fazer gpu's idênticos aos AMD é produto fora do mercado e grande indemnização a pagar à AMD.
 
Daí ele ter falado em licenças, grande parte das patentes na área devem estar com a AMD ou Nvidia, e na hipótese que se está a colocar, desenvolver um dGPU que não seja outro Larrabee, irá invariavelmente violar patentes, daí a necessidade de licenciar ou outro qualquer tipo de cross licensing, que possa envolver outras patentes.

Se bem bem que da PR da Intel, também não vejo nada que indique que vão desenvolver algo para concorrer directamente no mercado dGPU gaming, quando muito encurtar a distancia para a AMD nos iGPU dos APU e depois ir para o mercado dos aceleradores para HPC/AI.

Mas com todas as recentes aquisições há algo que tem passado despercebido, apesar dos lucros se terem mantido, muito à custa do mercado servidores/HPC
DNSt_Fj_IX4_AAWyj_D.jpg


DNSt_Fjl_W4_AAS4wz.jpg



DNSt_Fjo_Xc_AEQym8.jpg

https://twitter.com/BitsAndChipsEng/status/924554142504378368
 
inb4: They'll underdeliver.

Marquem este post.

É normal que depois de i740/i752, 945/965, Larrabee e os GEN as pessoas não tenham grande esperança.
Ao mesmo tempo não se sabe absolutamente nada sobre estes futuros GPUs da Intel. Podem estar já a ser desenvolvidos ou podem começar agora do zero. Podem comprar IP a outras empresas ou não. Podem comprar uma empresa de GPUs ou não (A nVidia e AMD não são as únicas). Até podem ser cancelados novamente.

O motivo principal nem são jogos... estão a ficar para trás em GPGPU onde o x86 de pouco vale

Tenho a certeza que a Intel terá como objectivos usar este GPU para GPGPU, mas a Intel tem 4 gamas de produtos para esse mercado e 3 não são x86. Mais genéricos que um GPU têm FPGAs da Altera e mais específicos os NNPs da Nervana e os VPUs da Movidius.

Não sei até que ponto a Intel tem grande margem de manobra, sem começar a infringir licenças da RTG e Nvidia.

Eu não sei se a Intel precisa de cross license com alguém. Eles tinham um acordo com a nVidia que acabou este ano. Não foi renovado nem a Intel entrou em acordo com outra empresa.
De lembrar que o acordo com a nVidia resulta de processos em tribunal em relação a chipsets e não a gráfica.
De lembrar também que a Intel fabrica Gpus pelo menos desde a i740, antes de aparecer o nome Gpu e é de muito longe o maior fabricante de Gpus no mercado de PCs.

Se a Intel sentir que correr o risco de infringir patentes, pode entrar em acordo com alguém ou comprar uma empresa de GPUs, tipo a Imagination, que é barata e tem muito IP.
 
É normal que depois de i740/i752, 945/965, Larrabee e os GEN as pessoas não tenham grande esperança.
Ao mesmo tempo não se sabe absolutamente nada sobre estes futuros GPUs da Intel. Podem estar já a ser desenvolvidos ou podem começar agora do zero. Podem comprar IP a outras empresas ou não. Podem comprar uma empresa de GPUs ou não (A nVidia e AMD não são as únicas). Até podem ser cancelados novamente.

Falando um pouco mais a sério:

Eu acho que eles já andam a cozinhar isto há algum tempo. Quem aqui se lembra daquela gama de CPUs de 45W's que iam parar aos Macbooks de 15'' porque tinham uma Iris iGPU mais potente que nos modelos normais? Quem se lembra que a ultima gen a ter isso foi Skylake (a Iris 580, com 1TFLOP de potencia), que acabou por ser só utilizada no Skull Canyon NUC e que não foi parar ao 2016 Macbook 15'' porque não havia dev path para Kabylake e beyond? A Apple teve que optar por usar AMD's até no modelo base do 15'' por causa disso (por causa disso e para manter a coerência em termos de que tipo de ecrãs externos suportava, mas adiante).

Nunca tinha entendido porque é que o dev path dessas Iris mais potentes tinha sido abandonado com Kabylake, a não ser o possível facto daquilo ser caro de se fazer e ter pouca adesão. Mas agora começo a perceber melhor as coisas, eles desistiram dessas soluções para possívelmente passar para isto. E com o balanço trazer isto para TDP's mais baixos, tanto em 15w como em 28w como nos 45w.

Eu quero imenso ver o que vem aí para o ano na casa dos 28w. É o que os portateis de 13'' mais beefy usam e um quad core nestes perfis deve manter umas clock speeds interessantes no CPU. Acho que vou verter aquela lágrima com o meu pobre mac i5 2.0ghz dual core xD
 
Eu acho que eles já andam a cozinhar isto há algum tempo. Quem aqui se lembra daquela gama de CPUs de 45W's que iam parar aos Macbooks de 15'' porque tinham uma Iris iGPU mais potente que nos modelos normais? Quem se lembra que a ultima gen a ter isso foi Skylake (a Iris 580, com 1TFLOP de potencia), que acabou por ser só utilizada no Skull Canyon NUC e que não foi parar ao 2016 Macbook 15'' porque não havia dev path para Kabylake e beyond? A Apple teve que optar por usar AMD's até no modelo base do 15'' por causa disso (por causa disso e para manter a coerência em termos de que tipo de ecrãs externos suportava, mas adiante).

Nunca tinha entendido porque é que o dev path dessas Iris mais potentes tinha sido abandonado com Kabylake, a não ser o possível facto daquilo ser caro de se fazer e ter pouca adesão. Mas agora começo a perceber melhor as coisas, eles desistiram dessas soluções para possívelmente passar para isto. E com o balanço trazer isto para TDP's mais baixos, tanto em 15w como em 28w como nos 45w.

Os crystalwell ( Cpus da Intel com uma gráfica melhor e eDram, que duraram do Haswell ao Skylake) foram feitos a pedido da Apple.
A questão de as outras OEM não terem grande interesse nesses processadores parece-me claro. Eles são caros e por aquele preço ninguém quer uma gráfica integrada que tem a performance de AMDs ou nVidias da geração anterior, no melhor dos casos.

O não haver path para futuras gerações, também é fácil de perceber. Para GPUs, eDram está morto. Não faz qualquer sentido. A relação tamanho/preço é muito pior em relação a HBM2. Os Crytalwell, no máximo têm 128 MB de eDram enquanto a solução com o Gpu da AMD leva 4GB de HBM2.
A vantagem de eDram em relação a HBM2 é ter uma latência muito menor, mas isso para GPUs é igual ao litro.

Todos os chips que usaram eDram (e houve bastantes) desapareceram do mercado. O único chip actual que conheço e que usa eDram é o IBM POWER9 e usa eDram como L3 (lá está, boa latência num produto em que o preço não é critico).

Quanto a eles já andarem a cozinhar isto há algum tempo, não faço ideia, porque não se sabe nada deste projecto. O facto da Intel ir criar placas gráfica dedicadas penso que não terá a haver com os GPUs integrados da Intel, a não ser que usem a mesma arquitectura e não me parece estar relacionado com o cpu com GPU AMD, porque me parece ser uma medida transitória até a Intel ter uma nova geração de GPUs com o Raja à frente, a não ser que a Intel compre IP da AMD ou se baseie nas arquitecturas da AMD para criar os seus GPUs, mas duvido muito que isto aconteça.

Eu quero imenso ver o que vem aí para o ano na casa dos 28w. É o que os portateis de 13'' mais beefy usam e um quad core nestes perfis deve manter umas clock speeds interessantes no CPU. Acho que vou verter aquela lágrima com o meu pobre mac i5 2.0ghz dual core xD

Ámen. O meu portátil de 14 polegadas tem um Core i5-4258U de 28W e estou à espera que a Intel ou AMD me dê uma razão para o trocar. :)
 
Eu quero imenso ver o que vem aí para o ano na casa dos 28w. É o que os portateis de 13'' mais beefy usam e um quad core nestes perfis deve manter umas clock speeds interessantes no CPU. Acho que vou verter aquela lágrima com o meu pobre mac i5 2.0ghz dual core xD

Os actuais 8250u e 8550u se configurados para 25W (dá para fazer nos xiaomi, por exemplo, que têm headroom no cooling) dão boa réplica aos HQ da geração anterior, tendo inclusivamente melhores resultados em single que um 7700HQ, por exemplo. A melhoria aqui é notória.
 
Fogo como é que é possível...

Tou para ver quanto vão desvalorizar os macs atuais. dependendo das coisas ainda me metia a fazer um upgrade...
 
A Intel acaba de matar o próximo Xeon Phi (Knights Hill) para o substituir por "algo" que escale até Exascale em HPC.
A Intel não diz absolutamente mais nada além disto. Nem vale a pena ler o artigo que tem essa informação metida pelo meio.
Agora, há uma boa probabilidade que o Xeon Phi como se conhece agora (Um cpu x86), seja substituído por um..........GPU. Mas a Intel não fala absolutamente nada sobre o que é o "algo" e por isso é pura especulação dizer que será um GPU.
O Knights Hill estava previsto ser lançado em 2018. Se o substituto for um GPU, é porque o desenvolvimento dele está avançado e talvez ainda o vamos ver em 2018. Tudo isto é pura especulação.

One step we’re taking is to replace one of the future Intel® Xeon Phi™ processors (code name Knights Hill) with a new platform and new microarchitecture specifically designed for exascale.

https://itpeernetwork.intel.com/unleashing-high-performance-computing/

Nota: O Xeon Phi Knights Mill que é um tweak do actual Xeon Phi para AI/ML continua no roadmap e deve ser lançado ainda este ano.
 
Uma espécie de NEC SX-Aurora? :biglaugh:

Sinceramente, não faço a menor ideia. A Intel não diz quase nada e um gajo anda a apanhar migalhas do chão.

A Intel anunciou que ia entrar no mercado de GPUs dedicados high-end. Não quer dizer muito, mas o G em GPU é de Graphics. O segundo ponto é que a divisão chama-se "Core and Visual Computing group".

Ao mesmo tempo, saiu uma noticia em Setembro, que ninguém ligou muito, mas acho que está completamente relacionado a estes anúncios.
Em Setembro, o Departamento de energia dos Estados Unidos, anunciou que "cancelava" o Supercomputador "Aurora" que estava previsto para 2018 com o Knights Hill e com 180 PF de performance. Nesse anuncio, anunciou um novo Supercomputador "Aurora", feito pela Intel, para 2021, com o mínimo de 1 Exaflop.
No artigo do NextPlattform em relação a isto, tem estas passagens:

Our several sources today confirm that this machine is not based on Knights Hill and that, whatever it uses for compute represents a big step in performance.

This future Argonne exascale system very likely does not mean a tweak to the Knights family that puts a more modest number of X86 cores – say, one or two dozen – with super-wide vectors and maybe tons of MCDRAM3 memory and maybe 400 Gb/sec Omni-Path 3 interconnects on the die or in the package. We got the distinct impression from Intel several years ago that it was interested in getting the memory capacity and memory bandwidth back in line with the compute capacity and network connectivity compared to the “Knights Landing” Xeon Phi, which has 72 cores, a pair of 512-bit vectors in each core, a modest amount of MCDRAM1 memory, and on-package 100 Gb/sec Omni-Path 1 interconnects.

Interestingly, the innovation with the Argonne exascale machine may come more in the vector unit, not the X86 core. With a mesh architecture, Intel could even go so far as break the CPU core free from the vector units, creating what comes to an offload model on the die — one that is insulated from the compiler and doesn’t require something like Nvidia’s CUDA development framework to operate.

One other tidbit we gleaned from casual conversations is that the forthcoming architecture is less like a novel approach (quantum, neuromorphic), not accelerated (as in with an offload model from a discrete CPU to a discrete GPU or FPGA), but of a “reimagined” way of designing chips.

A parte mais interessante é este quote a bold.

We have also heard that there is an interest in reducing the node count on this future Argonne machine, making it look less like IBM’s BlueGene/Q, which had a large number of modestly powered nodes.

Intel could be going the other way, creating a massive compute complex, perhaps with 3D stacking of compute and memory, with a huge number of cores and very wide vectors in each unit, and many Omni-Path links into this gigantic chip. This would be the only way to reduce the node count, as we are hearing it is trying to do.

https://www.nextplatform.com/2017/09/27/plans-first-exascale-supercomputer-u-s-released/

Com o pouco que transpira da Intel, não faço ideia o que se passa aqui.
 
Back
Topo