Intel says video encoding belongs on the CPU

.DX.

Power Member
Last night over dinner here in Taipei, Intel said that video encoding has always been a task designed for the CPU – and nothing will change that in the future.

We were talking about CUDA and how Nvidia’s claimed massive performance increases could potentially change the paradigm for software developers, especially with industry heavyweights like Adobe already on-board.

Intel’s representatives said that DivX uses the CPU to dynamically adjust detail across the scene to ensure that detailed areas of scenes have the detail they require.

When you’re encoding on the CPU, the quality will be higher because we’re determining which parts of the scene need higher bit-rates applying to them,” said François Piednoel, senior performance analyst at Intel.

Piednoel claimed that the CUDA video encoder will likely deliver poor quality video encodes because it uses a brute force method of splitting the scene up and treating each pixel the same. It’s interesting that Intel is taking this route, because one thing Nvidia hasn’t really talked about so far is video quality.

The science of video encoding is about making smarter use of the bits and not brute force,” added Piednoel.

I asked Piednoel what will happen when Larrabee turns up because that is, after all, a massively parallel processor. I thought it’d be interesting to see if Intel would change its tune in the future once it had something that had the raw processing power to deliver similar application performance to what is being claimed with CUDA. Intel said that comparing this to a GPU is impossible, because the GPU doesn’t have full x86 cores. With CUDA, you can only code programs in C and C++, while x86 allows the developer to choose whatever programming language they prefer – that’s obviously a massive boon to anyone that doesn’t code in C.

Intel claimed that not every developer understands C or C++ – while that may be true to an extent, anyone that has done a Computer Science degree is likely to have learned C at some point in their careers, as the first language I learned during my Computer Science degree was, you guessed it, C. And, after learning procedural programming in C, I then applied the knowledge I gained from that to then learn to write procedural programs in other languages.

What’s more, Intel said that GPUs aren’t very good at branching and scheduling, while the execution units themselves are suited only to graphics processing – this was something I disagreed with rather vocally, because not only are today’s GPUs handling tens of thousands of threads at once, they’re also designed to be very good at branching, as it’s a part of the spec for both major graphics APIs. And that technology definitely isn’t limited to just working in graphics workloads. From what I can make of this, Intel believes that the stream processing units in AMD’s and Nvidia’s latest graphics architectures are too dumb and not accurate enough to do anything other than push pixels – and I guess that’s why Intel is using fully functional x86 cores in its Larrabee architecture.

http://www.bit-tech.net/news/2008/06/04/intel-says-video-encoding-belongs-on-the-cpu/1
 
A Intel só está com medo porque sabe que o encoder open-source de vídeo x264 para o CUDA da RapiHD (sim, "x", não apenas "h") está quase a chegar e isso significa que vai perder muitas vendas de CPU's high-end.

Pode ser especialmente problemático para o lucrativo mercado de setup's x86 high-end em pós-produção de vídeo digital profissional e para broadcasting de sinais de TV comprimidos.
Significa que uma CPU low-end com uma GPU dedicada + CUDA faz o mesmo ou melhor do que vários multi-cores x86, por uma fracção do preço.
 
Muito interessante isso blastarr.

É pena é ser apenas sobre o CUDA e não para todas as gráficas. Mas parece promissor.

Uma GTX 280 a encodar video deve ser brutal :D
 
Acho que a Nvidia se quiser massificar o CUDA ainda o "abre" para a AMD, pagando a AMD uma percentagem qquer...


Até acho que o Cuda já é free, certo blastarr? A AMD podia modifica-lo para correr em placas deles?
 
corrijam me se estou enganado.. mas quer dizer a intel começa por dizer (li noutra thread, não tenho estado atento à conversa) que não vai haver chipsets nvidia para os novos cpus intel...

e agora começa com estes "ataques" (??) que o CPU é que traz mais performance no sistema, que vai fazer o decoding..
Apesar que isto não seria mau de todo, porque provavelmente seria uma forma de poupar uns trocos em máquinas de decoding, um bocado à semelhança de algumas máquinas de rendering, a Intel está com tanto medo da nVidia?
 
E não é para estar???
Basta pensar neste sentido, para o publico geral um bom sistema de jogos é um "pc com nvidia". Se a nvidia começa a fabricar mais componentes, pode começar a alastrar essa fama, pois se as gráficas são boas, as boards também são e isto e aquilo... da mesma maneira que intel é que é (face à amd), o mesmo pode vir a acontecer com a nvidia :)

Dai os ataques cerrados, ai e tal a grafica n tras nada de novo mas o CPU ui ui até estala!!!
 
Duvido muito que um GPU com um core clock de 600Mhz e com um shader core de 1.5Ghz que é o caso de uma 8800GT consiga bater um Quad Core a fazer uso completo dos seus cores.
Ou o GPU tem um algoritmo eficiente o suficiente para bater o CPU oferecendo a mesma qualidade ou o algoritmo é mais fraco em qualidade e dai ganha velocidade.
Mas venham os benchmarks e as comparações de qualidade de imagem :).
 
E a Nvidia tem assim tanta força? Não é uma pergunta flammatoria :) é mesmo por desconhecimento.
Fabrica gráficas e mobos e tem muito mercado seguramente mas a Intel é um gigante que deveria esmagar a Nvidia sem muito trabalho, digo eu.
 
Duvido muito que um GPU com um core clock de 600Mhz e com um shader core de 1.5Ghz que é o caso de uma 8800GT consiga bater um Quad Core a fazer uso completo dos seus cores.
Ou o GPU tem um algoritmo eficiente o suficiente para bater o CPU oferecendo a mesma qualidade ou o algoritmo é mais fraco em qualidade e dai ganha velocidade.
Mas venham os benchmarks e as comparações de qualidade de imagem :).

Mas o problema é que um Quadcore é muito menos potente em calculos matematicos. Daí que as graficas sejam muito mais potentes em algumas tarefas, onde se pode utilizar as dezenas e dezenas de "processadores" que elas têm.
 
Mas o problema é que um Quadcore é muito menos potente em calculos matematicos. Daí que as graficas sejam muito mais potentes em algumas tarefas, onde se pode utilizar as dezenas e dezenas de "processadores" que elas têm.

Sim percebo isso, eu até uso o Avivo para converter vídeo e prefiro ao CPU.
Não percebo é porque dizem que a Intel tem "medo" da Nvidia, afinal como disse a Intel tem peso e know how lidar com a situação penso eu.
È um desafio a crescente capacidade extra das gráficas mas se Intel não pode lidar com ele sem ser a fugir para a frente então de facto está mal a nível de visão.
 
Duvido muito que um GPU com um core clock de 600Mhz e com um shader core de 1.5Ghz que é o caso de uma 8800GT consiga bater um Quad Core a fazer uso completo dos seus cores.
Ou o GPU tem um algoritmo eficiente o suficiente para bater o CPU oferecendo a mesma qualidade ou o algoritmo é mais fraco em qualidade e dai ganha velocidade.
Mas venham os benchmarks e as comparações de qualidade de imagem :).

Não te esqueças é que a 8800GT tem 120 Shaders a 1.5Ghz, não apenas um ;)
 
falando em render de imagens

"The company continued to run tests with Pentium 4 and Core 2 generations of processors, but even with the fastest Core 2 Duo and Quad processors, the render time could not be cut under 45 minutes, we were told. A possible solution popped up when TechniScan senior software engineer Jim Hardwick bought a GeForce 8-series card and discovered Nvidia’s CUDA SDK. Jim is an avid gamer, so he bought the card to enjoy latest and upcoming games, but a quick run of his code on a GPU apparently lit up more than just one bulb. Fast forward to 2008 - today the code is ported to CUDA and utilizes four Tesla C870 boards. The render time was cut from 45 minutes on a 16-core Core 2 cluster to only 16 minutes."

http://www.tomshardware.com/news/Nvidia-Tesla-Techniscan,5653.html
 
Back
Topo