Gráfica Intel Arc Discrete GPUs

Competir com o ga104 e navi22 não é low end, muito menos budget :(
A versão de 128EU's sim, mas acho que mais importante que o preço, os drivers vão ser factor fundamental para causar boa impressão inicial. Espero que a intel não cometa os mesmos erros que a amd.

Certo nesse caso é mid range, mas mesmo nessa gama com a entrada da Intel em cena pode ser que exista uma pressão extra para a AMD e Nvidia reverem o preço pelo qual elas se encontram agora. 1k por uma 6700xt é obsceno e o mesmo para a 3060ti e 3070.
Se há segmento que precisa urgentemente de concorrência é esse, até porque históricamente é onde se vendem mais gpus no mercado DIY.
 
Não me parece que seja esse o segmento prioritário da Intel, já vários rumores apontaram para o lançamento inicial ser o mercado dos portáteis.
 
O problema da Intel é isto:
A versão de 128EU's sim, mas acho que mais importante que o preço, os drivers vão ser factor fundamental para causar boa impressão inicial. Espero que a intel não cometa os mesmos erros que a amd.
Por melhores que os gpu sejam, quem nunca irá comprar um gpu de 1ª (e 2ª) geração da Intel eu sei que é.
O histórico com drivers, por parte da Intel, é o verdadeiro horror e tragédia.

Para ser confiável têm primeiro que construir um track record fantástico para poderem ser confiáveis nos gpu's, cuja perfomance depende bastante de drivers e respectivas actualizações.
 
Se meterem placas no segmento de entrada/média baixa por 150/200€ vai ser um sucesso sem fim. Na prática seriam placas dentro da evolução do passado, performance de rtx 2060/2070 ao preço das 1650/1660. Haja stock...
 
Não me surpreenderia se esta primeira geração apenas aparecesse no canal OEM, é onde está o forte da Intel e a "exigência" é diferente do DIY.
 
Ponte Vecchio, num dos slides da apresentação da ISC 21

Intel-Xe-HPC-OAM-Packaging.jpg

https://www.servethehome.com/intel-xeon-sapphire-rapids-supports-hbm-and-ponte-vecchio-oam-update/

O OAM é apenas um formato específico para os "Aceleradores", sejam GPU ou não, para os servidores que seguem as directrizes do Open Compute Project.
 
Se isto for relativamente bom comparativamente com o DLSS vem demonstrar algo que estou farto de dizer, GPUs para o mercado de consumidor não precisam de tensor cores.
 
Sim eu sei, mas a pergunta é será que o overhead justifica a inclusão de cores especializados em operações com matrizes que só servem para inferência de dados? Teremos de esperar por benchmarks independentes.

Infelizmente ainda estou à espera que comecem a usar estas coisas para outros recursos dos motores de jogos, porque se for só para temporal upsampling não sei se justifica o espaço na die. Mas suponho que isso só poderá acontecer se estes nucleos existirem na maioria de hardware existente. Para já é uma forma engenhosa que arranjaram de abater no custo de R&D dos aceleradores de IA.
 
Do que ouvi dizer, aqueles tensors e XMX, ocupam uns 10% do chip.
Claro que podíamos substituir por shaders. E a correr muito bem, a escalar perfeitamente, teríamos mais 10% de desempenho em todos os jogos.
Ou então, podemos ter mais uns 30% de desempenho, por 10% do chip com unidades para Matrizes.
Há um anos atrás, quase em jogos com DLSS 2.0, eu preferia os 10%.
Hoje com duas dúzias de jogos com DLSS 2.0, tendo eu já jogado uma mão cheia deles. Mais o que vêm aí....
Começo a tender para as unidades de Matrizes. Mesmo considerando que o DLSS 2.0 é quase sempre pior que nativo.
Mas é bom quanto baste, para o aumento de desempenho que dá.

Outra coisa a considerar. No ano passado a Intel mostrou um protótipo de um upscaler por ML. Se calhar o prototipo do XeSS.
90% dos cálculos eram Int4, o resto Int8. Ou seja, em termos de desempenho, será relativamente barato.
Se tivermos o mesmo rácio agora com o XeSS....
 
Back
Topo