Nvidia compra Mental Ray

blastarr

Power Member
http://www.nvidia.com/object/mental_images.html

A Nvidia acaba de anunciar a compra da Mental Images, mais conhecida pelo seu produto flagship, Mental Ray (usado em quase todos os pacotes de rendering da Autodesk/Alias, pela esmagadora maioria dos estúdios de Hollywood, mas também disponível em formato stand-alone).


Também pode ser uma indicação de que a Nvidia se prepara para competir com a Intel no campo do ray-tracing em tempo real para jogos.
 
Última edição:
hum... acho mt dificil que a nvidia vá competir com a intel no que diz respeito ao ray-tracing... simplesmente as arquitecturas actuais apenas são eficientes para rasterizing. O que seria interessante seria a nvidia a implementar auxilio com alguns shaders de calculos de AO ou QMC através de alguma api do tipo CUDA... Vamos esperar para ver

[]
 
hum... acho mt dificil que a nvidia vá competir com a intel no que diz respeito ao ray-tracing... simplesmente as arquitecturas actuais apenas são eficientes para rasterizing. O que seria interessante seria a nvidia a implementar auxilio com alguns shaders de calculos de AO ou QMC através de alguma api do tipo CUDA... Vamos esperar para ver

[]

Tens de experimentar o Gelato...
Já usa as GPU's actuais para assistir no ray-tracing de muitas aplicações de rendering modernas, e é muito mais rápida nesses aspectos do que qualquer CPU.
Só não é em tempo real ainda porque não houve grande incentivo por parte da indústria de videojogos para que a tecnologia das placas gráficas tenha evoluído nesse sentido, mas não é tão tecnicamente impossível como se julga, sobretudo agora com o enorme poder matemático em cálculos de vírgula flutuante dos shaders programáveis nas gráficas modernas.
 
Já experimentei o gelato mas a performance quando se usava ray-traycing era simplesmente ridícula... Volto a dizer, as arquitecturas actuais não são muito famosas com raytracing.

É verdade que indústria actual não tem evoluído mt nesse sentido mas isso tem uma razão... com o poder de processamento que se tinha até há pouco tempo conseguía-se obter melhores resultados com rasterizing do que com ray-traycing... Outro grande problema reside na natureza do raytracing de ser mt biased (lá se vão as soft-shadows) e de ter resultados mt agressivos quando não usado juntamente com bastante AA (experimenta usar bumps sem AA com ray-traycing para veres o que digo).

Mas não vou dizer que é impossível e q a nvidia não o fará mas que vai ser complicado lá isso vai ser...
 
Nvidia To Acquire Ray Tracing Company

PC Perspective is reporting Nvidia will be acquiring RayScale, a ray tracing software company. An official announcement is expected in the next few days if not sooner.

According the RayScale’s website the company “provides ray tracing photo-realistic solutions,” and makes products for Autodesk Maya that utilizes a hybrid rendering technique. No other details were revealed about the acquisition or how Nvidia will be utilizing RayScale’s expertise.

If true, this would be an interesting acquisition for Nvidia. In March, Nvidia’s chief scientist, Dr. David Krik, shared his doubts about ray tracing with future games. Dr. Krik went as far as pointing out weaknesses in ray tracing versus current rasterization techniques, pointing out antialiasing as a specific example. However, Dr. Krik, points out the possibility of future hybrid rending techniques, combing both rasterization and ray tracing.

Earlier this year, Intel fired off statements at the Intel Developer Forum that pushed Nvidia to “open a can of whoop-ass.” Pat Gelsinger, Intel senior vice president, essentially proclaimed Nvidia’s curret GPU as dead. “Graphics that we have all come to know and love today, I have news for you. It’s coming to an end. Our multi-decade old 3D graphics rendering architecture that’s based on a rasterization approach is no longer scalable and suitable for the demands of the future,” said Gelsinger.

Gelsinger’s statements were the opening lines to Intel’s unveiling of the upcoming Larrabee graphics architecture. Larrabee is Intel’s first attempt at a discrete graphics solution that borrows from the x86 architecture and has been reported to feature multiple cores. Intel has also announced the new chip will support OpenGL and DirectX, along with new SSE-like extensions known as Advanced Vector Extensions. However, most importantly Intel has been pushing the chip as a ray tracing monster.

http://www.tomshardware.co.uk/nvidia-intel-larrabee,news-28268.html
 
Uma grande aposta da Nvidia!

E como as coisas estão, não deve demorar muito a aparecer as primeiras samples com este novo método de rendering.
 
O ambiente CUDA é de graça, e o Mental Ray também será, a julgar pelo que aconteceu à API PhysX.
A razão da escolha do Mental Ray em detrimento do Gelato (que já vinha do tempo da Geforce FX) é óbvia: suporte da indústria.


É o renderer Mental Ray que está por detrás da maior parte dos pacotes de modelação e renderização 3D, sobretudo os do grupo Autodesk (o ImageStudio, por exemplo, é um front-end gráfico de fácil utilização para o Mental Ray -cuja versão normal é controlada a partir de uma linha de comandos, "Old School"-).
Assim, modificando essa base para suportar aceleração pela GPU, ganham novos clientes para as famílias Quadro e Tesla, e aumentam o uso do software na indústria dos jogos 3D e dos efeitos especiais para cinema e televisão.

O objectivo a longo prazo da Nvidia é substituir o DirectX em aplicações onde este não é adequado (física, ray-tracing, etc), pelo CUDA, aproveitando a capacidade desta API de interagir em tempo real com as API's DirectX e OpenGL (especializados sobretudo em rasterização).
 
Muito bom!

Não só demonstra que a nVidia está muito atenta às futuras tendências como acaba por ser uma confirmação que o Ray Tracing será mesmo o caminho a seguir, à partida "hibridamente" com a rasterização. Também mostra que a nVidia está a levar a "ameaça" da Intel com o Larabee muito a sério e que esta aquisição lhe permite dar uns passos bem grandes na àrea do Ray Tracing, senão mesmo ficar uns passos à frente da Intel, com o suporte do hardware actual.

A unica preocupação que surge aqui é ao nivel do standard. Se Intel e nVidia começarem a puxar cada uma para seu lado no que se refere ao Ray Tracing vai ser muito complicado vermos isto a ser implementado nos jogos, já nas aplicações de rendering a coisa deverá ser mais pacifica.

Estou para ver o que pretende a AMD fazer, quer nos seus CPU's, quer nos GPU's.

Aproximam-se tempos conturbados até se começar a perceber o caminho que o binómio rasterização/Ray Tracing irá tomar. Esperemos que a MS ajude a pôr alguma base comum nisto. De qualquer forma parece-me que é um mal necessário, exigido pelo progresso.
 
Back
Topo