Gráfica Intel Arc Discrete GPUs

Eles já fizeram várias reviews de Portáteis "reais" com o i7 1165G7 e nos benchmarks colocam os resultados do Portátil de referencia da Intel, que a Intel enviou para as primeiras reviews e a média dos resultados de todos os Portáteis com i7 1165G7 que eles já fizeram review.

Exemplo do The Witcher 3 a 1366x768:
FjkuzvA.png


A diferença entre o Portátil de referencia da Intel e a média de Portáteis "reais" com aquele CPU é de 37%, neste teste.

Fico lixado a Intel não ter dados e valores deste Processador com o TDP a 15W e assim, mostrar uma imagem muito mais realista de quando será usado em Portáteis "Reais". A Intel andou a mostrar um cenário, que raramente será real.

Seja como for, este GPU Xe continua a ser interessante. Se a Intel tivesse menos problemas com os 10 nm, provavelmente o GPU conseguiria melhores clocks.
Acho que teremos uma visão mais definitiva deste GPU Xe, quando for lançado numa gráfica dedicada.
 
Entretantos parece que o DoE (Departamento de Energia EUA) confirmou o atraso no Aurora - Intel CPU (Sapphire Rapids?) + Intel GPU (Ponte Vecchio)

With a one-year delay of Intel’s 7nm node that is integral to Aurora’s GPU engine (the Intel Xe-based Ponte Vecchio), would Intel contract an outside foundry to fab the GPU die? And what would the impact be on the speeds and feeds and delivery schedule for Aurora?

We don’t have all those answers yet, but we did get broad confirmation of the disruption from the DOE’s Office of Science.

There are indications that Aurora will in fact be delayed, but Frontier at Oak Ridge National Laboratory is on track as is the Exascale Computing Project, reported Barb Helland, associate director of the Office of Science for Advanced Scientific Computing Research (ASCR) during an Advanced Scientific Computing Advisory Committee (ASCAC) meeting, held last week (Sept. 24-25).
https://www.hpcwire.com/2020/10/01/auroras-troubles-move-frontier-into-pole-exascale-position/

Isto tornaria o Frontier (AMD Epyc custom + AMD Instinct Gpu) o primeiro sistema Exascale.
 
Num nicho que usa isso para gaming. Para boa parte das pessoas que compram laptops, vão comprar o que o vendedor de uma qualquer superfície comercial lhes "recomendar".
Agora acrescenta a isso um "special deal offer" por parte da Intel aos OEM ;)
 
A questão é que o Tiger Lake tem 96 EUs e esta DG1 também, a diferença de clock é pequena 1.33 para 1.5 Ghz, ou seja, o ganho pode ser pequeno.

Claro que tem 2 vantagens, que é memória dedicada e não partilhar o TDP com o resto do chip.

Mas neste cenário, a Intel devia ter criado o tiger lake com um GPU minimo, tipo 24 ou 32 EU, para o basico em modo bateria/power saver. Assim e puro desperdicio de espaço na die, eu via o Tiger Lake de 96 EUs como algo integrated only.

e não sei se este "SLI" vai funcionar, imho. Se calhar faz mais sentido por um bus GDDR6 de 64 bits no tiger lake para alimentar o iGPU e um TDP global de 45W

O que faz sentido era nisso de laptops existir 3 dies:
4C + Big GPU - Para laptops leves sem grafica dedicada
4C + Small GPU - para laptop leves/intermediarios com grafica dedicadas e para low cost laptops.
8C + Small GPU - para todo o resto, com grafica dedicada
 
Última edição:
Pois, a Intel não tem o cenario "4C + Small GPU" e ai tem este caso do portatil ASUS com um dGPU com o mesmo hardware da integrada.

A AMD que parece que quer apostar neste cenario, o Cezzane deve ser o "8C + Small GPU" e o Van Gogh deve ser "4C + Big GPU". Só falta mesmo o low cost/low power "4C + small GPU" que seria o sucessor daquele "Dali"
 
Intel Sends Linux Kernel Patches For VRR / Adaptive-Sync Enablement
For months now Intel's open-source Linux driver stack has been preparing for VRR support with Gen11/Gen12 graphics.
This kernel code is what's needed for actually enabling DisplayPort 1.4 Adaptive-Sync / Variable Refresh Rate on capable Intel graphics hardware with capable displays.
So the kernel code on the Intel side is now out for review and will hopefully be mainlined for Linux 5.11 in early 2021. With the user-space improvements to xf86-video-modesetting and the like already out there, it means by the time of the spring 2021 Linux distributions we might be seeing good Intel VRR support on Linux. Like the AMD open-source driver, these patches are initially only wired up for DisplayPort rather than HDMI, which appears to be due to some legal/licensing limitation for the open-source Linux drivers.
https://www.phoronix.com/scan.php?page=news_item&px=Intel-VRR-Adaptive-Sync-2020
 
Specs da versão dedicada para portáteis:
X1fy2un.png


Benchmarks:
VY6j9pK.jpg


Y1a3HCZ.jpg


Dynamic Power Share:
5ExHYDC.jpg


Encoding:
4zOHq72.jpg


xaVTqcu.jpg


https://www.anandtech.com/print/162...-intel-launches-xe-max-for-entrylevel-laptops

Por ultimo, esta DG1 estará disponivel em placas dedicadas, para o ano..............mas só para OEMs.

Alongside today’s launch of Intel’s DG1-based Iris Xe MAX graphics for laptops, the company is also quietly confirming that DG1 will be coming to desktop video cards as well, albeit in a roundabout way.

Though still in the early stages, a hereto unnamed third party has reached an agreement with Intel to produce DG1-based desktop cards. These cards, in turn, will be going into OEM desktop systems, and they are expected to appear early next year.

The very brief statement from Intel doesn’t contain any other details. The company isn’t saying anything about the specifications of the OEM desktop cards (e.g. clockspeeds), nor are they naming the third party that will be making the cards, or any OEMs who might be using the cards. For today at least, this is a simple notification that there will be OEM cards next year.

As for the market for such cards, there are a couple of avenues. OEMs could decide to treat the cards similarly to how Iris Xe MAX is being positioned in laptops, which is to say as a cheap add-in accelerator for certain GPU-powered tasks. Intel has baked a significant amount of video encode performance into the Xe-LP architecture, so the cards could be positioned as video encode accelerators. This would be very similar to Intel’s own plans, as the company will be selling a DG1-based video encode card for servers called the SG1.

Alternatively, the third party may just be looking to sell the DG1 card to OEMs as simple entry-level discrete graphics cards. Based on what we know about Xe MAX for laptops, DG1 is not expected to be significantly more powerful than Tiger Lake integrated graphics. However, as pointed out by our own Dr. Ian Cutress, it should be a good bit better than the Gemini Lake Atom’s integrated GPU.

https://www.anandtech.com/show/1621...g-to-discrete-desktop-cards-next-year-oemonly
 
Nota que apesar da DG1 de usar LPDDR4X, não usa tiger lake "salvaged" (ou seja, com a parte de CPU desativada), mas dies GPU only.
 
A meu ver melhor feature é o Deep Link,

Deep Link goes beyond the 3D graphics rendering domain, and also provides augmentation of the Xe Media Multi-Format Encoders of the iGPU and dGPU to linearly scale video encoding performance. Intel claims that a Xe iGPU+dGPU combine offers more than double the encoding performance of NVENC on a GeForce RTX 2080 graphics card
https://www.techpowerup.com/274061/...-creator-markets-with-iris-xe-max-mobile-gpus

O TDP também não deixa de ser interessante, a não ser que seja IntelDP.
 
O que eu questiono naquele anuncio é se a Intel não estará a lançar este GPU low-end (die pequena e TDP "baixo"), só para portáteis e desktops para o próximo ano, mas só para OEMs, porque são feitas a 10 nm da Intel e as quantidades, yelds, clocks e TDPs são fracos. Pelo menos até sair o Xeon Ice Lake.
Se não estou em erro, a 10 nm Intel, até agora, só saíram chips pequenos, para TDPs baixos (28 W acho que é o máximo até agora), clocks provavelmente maus (comparado se fossem feitos noutros processos) e quantidades baixas.
Conclusão, questiono se este GPU a 10 nm, não continua a mostrar os enormes problemas que a Intel tem com os 10 nm.

Outra questão lateral é se valerá a pena colocar este GPU dedicado em computadores com versões do Tiger Lake com 96 EUs. Sem ser aquele "Deep Link", parece-me que o chip serve mais para adicionar 25 W de TDP ao Portátil do que melhorar muito a performance que o iGPU já tem.
 
Mas eles também incluem a gestão "energética total" como no caso das AMD (APU+dGPU), ou seja a performance será apenas só e quando necessária e havendo "thermal room" vai sendo balançada entreo iGPU e dGPU.

Mas tendo em conta a questão que referes quer dos 10nm (~75mm2) quer da questão dos 25W só mesmo em testes, não vá o sistema puxar mais de 80W quando em carga.

E em relação a isso é ficar atento aos rumores da DG2, que é suposto ser a dGPU para Desktop, mas que há realmente dúvidas sobre onde será produzida.
https://videocardz.com/newz/intel-o...is-now-shipping-to-oems-and-dg2-has-taped-out

Há depois a curiosidade de o Raja Koduri ter estado presente na SAFE (Samsung Adavanced Foundry Ecosystem), no passado dia 28.
Coincidências? :rolleyes:

Entretantos já há alegados benches com um Acer Swift 3X com Xe MAX

Acer-Swift-3X-Intel-Iris-MAX-PurePC-1-768x579.jpg

Acer-Swift-3X-Intel-Iris-MAX-PurePC-7-1200x812.png

Acer-Swift-3X-Intel-Iris-MAX-PurePC-3-1200x917.jpg

https://videocardz.com/newz/intel-iris-xe-max-tested-in-3dmark-time-spy-and-fire-strike
 

Num dos portáteis com o i7-1165G7 + Intel Max, dará para desligar o dGPU e só usar o iGPU, para comparação?

São 2 sistemas diferentes, mas a diferença entre esse Acer com a Xe MAX dGPU para o Asus UX425E com a Xe iGPU, é minima. No 3DMark a Xe MAX até perde e nos outros a diferença é 3 a 4 FPS. Era o que dizia, em portáteis com o i7-1165G7, vale sequer a pena os fabricantes estarem a adicionar a Xe MAX dGPU? Vai encarecer o portátil, adiciona TDP e as diferenças são minimas, com excepção talvez em situações de Encoding com aquele "Deep Link".
 
Back
Topo