1. Este site usa cookies. Ao continuar a usar este site está a concordar com o nosso uso de cookies. Saber Mais.

Intel says video encoding belongs on the CPU

Discussão em 'Novidades Hardware PC' iniciada por .DX., 10 de Junho de 2008. (Respostas: 16; Visualizações: 1751)

  1. .DX.

    .DX. Power Member

    http://www.bit-tech.net/news/2008/06/04/intel-says-video-encoding-belongs-on-the-cpu/1
     
  2. blastarr

    blastarr Power Member

    A Intel só está com medo porque sabe que o encoder open-source de vídeo x264 para o CUDA da RapiHD (sim, "x", não apenas "h") está quase a chegar e isso significa que vai perder muitas vendas de CPU's high-end.

    Pode ser especialmente problemático para o lucrativo mercado de setup's x86 high-end em pós-produção de vídeo digital profissional e para broadcasting de sinais de TV comprimidos.
    Significa que uma CPU low-end com uma GPU dedicada + CUDA faz o mesmo ou melhor do que vários multi-cores x86, por uma fracção do preço.
     
  3. JPgod

    JPgod Moderador
    Staff Member

    Muito interessante isso blastarr.

    É pena é ser apenas sobre o CUDA e não para todas as gráficas. Mas parece promissor.

    Uma GTX 280 a encodar video deve ser brutal :D
     
  4. skandal

    skandal Power Member

    Acho que a Nvidia se quiser massificar o CUDA ainda o "abre" para a AMD, pagando a AMD uma percentagem qquer...


    Até acho que o Cuda já é free, certo blastarr? A AMD podia modifica-lo para correr em placas deles?
     
  5. igordafonseca

    igordafonseca Power Member

    E o aspecto da qualidade que o homem da Intel refere, é mesmo assim? Ganha-se em velocidade mas perde-se em qualidade com o CUDA?
     
  6. Spiderman

    Spiderman I folded Myself

    Não acredito nisso de perder qualidade.

    Deve ser mais uma mentira qualquer para tentar abrandar o avanço do GPGPU...
     
  7. Romani48

    Romani48 Power Member

    corrijam me se estou enganado.. mas quer dizer a intel começa por dizer (li noutra thread, não tenho estado atento à conversa) que não vai haver chipsets nvidia para os novos cpus intel...

    e agora começa com estes "ataques" (??) que o CPU é que traz mais performance no sistema, que vai fazer o decoding..
    Apesar que isto não seria mau de todo, porque provavelmente seria uma forma de poupar uns trocos em máquinas de decoding, um bocado à semelhança de algumas máquinas de rendering, a Intel está com tanto medo da nVidia?
     
  8. jatbas

    jatbas Power Member

    E não é para estar???
    Basta pensar neste sentido, para o publico geral um bom sistema de jogos é um "pc com nvidia". Se a nvidia começa a fabricar mais componentes, pode começar a alastrar essa fama, pois se as gráficas são boas, as boards também são e isto e aquilo... da mesma maneira que intel é que é (face à amd), o mesmo pode vir a acontecer com a nvidia :)

    Dai os ataques cerrados, ai e tal a grafica n tras nada de novo mas o CPU ui ui até estala!!!
     
  9. igordafonseca

    igordafonseca Power Member

    Talvez o ataque não seja dirigido á Nvidia. Afinal já há quem fabrique CPU e GPU sob a mesma marca.......
     
  10. Jv.Batista

    Jv.Batista I fold therefore I AM

    mas não tem a mesma força que a intel ou nvidia tem...
     
  11. losty

    losty Power Member

    Duvido muito que um GPU com um core clock de 600Mhz e com um shader core de 1.5Ghz que é o caso de uma 8800GT consiga bater um Quad Core a fazer uso completo dos seus cores.
    Ou o GPU tem um algoritmo eficiente o suficiente para bater o CPU oferecendo a mesma qualidade ou o algoritmo é mais fraco em qualidade e dai ganha velocidade.
    Mas venham os benchmarks e as comparações de qualidade de imagem :).
     
  12. igordafonseca

    igordafonseca Power Member

    E a Nvidia tem assim tanta força? Não é uma pergunta flammatoria :) é mesmo por desconhecimento.
    Fabrica gráficas e mobos e tem muito mercado seguramente mas a Intel é um gigante que deveria esmagar a Nvidia sem muito trabalho, digo eu.
     
  13. Spiderman

    Spiderman I folded Myself

    Mas o problema é que um Quadcore é muito menos potente em calculos matematicos. Daí que as graficas sejam muito mais potentes em algumas tarefas, onde se pode utilizar as dezenas e dezenas de "processadores" que elas têm.
     
  14. igordafonseca

    igordafonseca Power Member

    Sim percebo isso, eu até uso o Avivo para converter vídeo e prefiro ao CPU.
    Não percebo é porque dizem que a Intel tem "medo" da Nvidia, afinal como disse a Intel tem peso e know how lidar com a situação penso eu.
    È um desafio a crescente capacidade extra das gráficas mas se Intel não pode lidar com ele sem ser a fugir para a frente então de facto está mal a nível de visão.
     
  15. Ansatsu

    Ansatsu Power Member

    Não te esqueças é que a 8800GT tem 120 Shaders a 1.5Ghz, não apenas um ;)
     
  16. JPgod

    JPgod Moderador
    Staff Member

    são 112 shaders ;)
     
  17. Corpsegrinder

    Corpsegrinder Banido

    falando em render de imagens

    "The company continued to run tests with Pentium 4 and Core 2 generations of processors, but even with the fastest Core 2 Duo and Quad processors, the render time could not be cut under 45 minutes, we were told. A possible solution popped up when TechniScan senior software engineer Jim Hardwick bought a GeForce 8-series card and discovered Nvidia’s CUDA SDK. Jim is an avid gamer, so he bought the card to enjoy latest and upcoming games, but a quick run of his code on a GPU apparently lit up more than just one bulb. Fast forward to 2008 - today the code is ported to CUDA and utilizes four Tesla C870 boards. The render time was cut from 45 minutes on a 16-core Core 2 cluster to only 16 minutes."

    http://www.tomshardware.com/news/Nvidia-Tesla-Techniscan,5653.html
     

Partilhar esta Página