PS3 PlayStation 3 - Discussão Geral

encontrei uma referencia interessante numa Patente. Aparentemente esta Patente pertence á SCE (sony). Nao vejo o nome dela na patente, e ja questionei se eles (quem estava a discutir isto) tinham a certeza se isto pertencia á sony. Logo confirmo isto...

entretanto fica aqui a patente supostamente da sony:

39. A computing device, comprising: a graphics processing unit (GPU) capable of determining lighting characteristics for an object in real time, the lighting characteristics defined through a basis function, the GPU including a stream processor configured to split a stream of data associated with the lighting characteristics into multiple simultaneous operations.

40. The computing device of claim 39, wherein the computing device is a video game console.

41. The computing device of claim 39, further comprising: a display screen in communication with the GPU, the display screen configured to present image data representing the object.

42. The computing device of claim 39, wherein the stream processor is a programmable hardware unit capable of executing code that is replicated multiple times.

43. The computing device of claim 42, wherein the code that is replicated multiple times is configured to process one of a ray tracing algorithm and multiply and add operations for data derived from the ray tracing algorithm.

44. The computing device of claim 43, wherein the ray tracing algorithm determines a direct illumination lighting characteristic in real time and the multiply an add operation determine a secondary lighting characteristic in real time.

45. The computing device of claim 39, wherein the GPU is further configured to render the object through a process involving linear interpolation, such that the lighting characteristics are applied to the rendered object.

46. The computing device of claim 39, wherein the basis function is one of a wavelet and a spherical basis function.

Ray tracing em tempo real.... mito ou realidade? até agora julgava que era mito

É que, Ray tracing em tempo real num jogo... bem, ja da para imaginar o resultado final...
Começo a pensar nas Demos que vimos na E3...

uma pequena discussão aqui
http://www.beyond3d.com/forum/viewtopic.php?t=21364&view=next
 
No news here.
Raytracing em tempo real ?
Sim, é possível, so what ?
O que interessa é a resolução, a qualidade da luz, o nº de fontes da mesma, qualidade das sombras, as características dos materiais descritas em texturas procedurais e shaders criados para o efeito, efeitos atmosféricos como refracção e reflexão, etc, etc.
A um nível básico, resolução e detalhe relativamente baixos, etc, é possível, sobretudo em sistemas multi-core ou multi-cpu.

A meu ver, isto tem mais a ver com iluminação High Dinamic Range aplicada a assets dos jogos do que com Raytracing no sentido clássico, but i could be wrong here...

Estas partes das patentes que não estão classificadas são sempre de interpretação rica em dualidades e dúvidas.
 
Xpirit disse:
blastr,
Dizes que tecnicamente o DVI pode fazer o mesmo o que não é verdade. É um standard para video apenas. http://www.interfacebus.com/Design_Connector_Digital_Visual_Interface_DVI_Bus.html

O HDMI pode ser visto como um DVI (single link)+ 8 canais de audio digital.

Uma coisa é o "técnicamente possível", outra é o standard aprovado pela VESA, que aliás é uma evolução "compatível" com DVI.

Mais, até o HDMI está obsoleto, vê esta notícia fresquinha:
http://www.vesa.org/press/displayportpr.htm

Chegou a hora do DisplayPort, que tb transmite áudio digital em opção e, uma quase surpresa, tem DRM (opcional, mas quase certo em tudo o que for conector).
Quem comprou HDMI's a preços de carros, deve estar a fumegar com tanto standard...
 
Última edição:
king6ki.jpg



estes gajos nao descançam... gozam com tudo! lool
 
Raytracing em tempo real..... lol, o cell e consequente PS# são de facto um bichos potentes e disso ng tem duvida mas até chegar ao raytracing.... acrdito que uma minifarm de PS3 o faça e em tempo real mas só uma. NOT











ps: ( mas tb posso estar enganado...... :P )
 
É certo que nenhum de nós sabe como se comporta o Cell e o que ele é capaz de fazer, mas quanto à grafica já não é assim, e aquilo que vêmos em videos a grafica não consegue fazer, quem conhece bem os specs das actuais graficas pode imaginar o que fará a grafica da ps3 com os specs anunciados, agora é assim, ou é tudo óbra do Cell e a grafica só estrova, ou entao eh bullshit.
Outra coisa é a quantidade de memoria da maquina, ou haverá loadings de 2 em 2 minutos ou mais uma vez aqueles videos sao bullshit.
É ver para querer, o marketing dá-nos voltas à cabeça..
 
NeoToPower disse:
Raytracing em tempo real..... lol, o cell e consequente PS# são de facto um bichos potentes e disso ng tem duvida mas até chegar ao raytracing.... acrdito que uma minifarm de PS3 o faça e em tempo real mas só uma. NOT

ps: ( mas tb posso estar enganado...... :P )

Podes encontrar no google que ha programas a fazerem Raytracing em tempo real..
Mas é como o Blastarr disse, É a qualidade de multiplas variaveis que permite isso...

Favas, segundo deu para perceber em entrevistas, o Cell nao esta ali só para calcular fisica :)

Acho lixado é mostrarem teasers e nao explicarem a arquitectura lol.. sony style sem duvida
 
Favas disse:
(...)Outra coisa é a quantidade de memoria da maquina, ou haverá loadings de 2 em 2 minutos ou mais uma vez aqueles videos sao bullshit. (...)

em relação a isso... não creio que haverá loading na maior parte de jogos da proxima geração... a gamecube já não os tem e a solução é algo simples, é basicamente esconder os loadings assim como farias com o acesso a um cartucho para isso é presiso uma drive rápida e ter um buffer para ajudar nisso, e ir alocando-a na RAM do sistema, deste modo podes começar a fazer o loading da proxima localização quando ainda te estás a aproximar da porta que te leva a essa mesma localização
 
Quanto ao loading, houve a seguinte demo do Unreal Engine 3 na GDC:

The second demo showed off one of the newly announced features of Unreal Engine 3: seamless level loading. Basically, the engine is capable of loading several levels simultaneously, so the game will analyze where a player is going and load the next level ahead of time. By the time you reach the new level, it will already be in memory. This means that after the initial load to start a game, players will not experience any level loading at all. To demonstrate this, Epic showed a futuristic dune buggy driving through the streets of what looked like a gritty European city. (If anything, it looked very much like a far more detailed version of Half-Life 2's City 17.) The buggy careened through the empty streets and then cut across a park. And it did so seamlessly. This means that in addition to no level loads, the game will be capable of creating huge, Grand Theft Auto-like worlds to explore. To finish the buggy demo, the camera pulled back to reveal a glimpse of a stunning and crowded cityscape, along with the glistening waters of a huge bay.

http://www.gamespot.com/news/2005/03/09/news_6120126.html


Quanto ao "real time raytracing" na PS3, não vi nada que indicasse isso na apresentação, nem me parece realista.

Outra coisa, se a RSX reduzisse a performance do Cell/PS3, simplesmente não estava lá.
 
Nemesis11 disse:
Quanto ao loading, houve a seguinte demo do Unreal Engine 3 na GDC:



http://www.gamespot.com/news/2005/03/09/news_6120126.html


Quanto ao "real time raytracing" na PS3, não vi nada que indicasse isso na apresentação, nem me parece realista.

Outra coisa, se a RSX reduzisse a performance do Cell/PS3, simplesmente não estava lá.

segundo a watchimpress, o RSX e o CELL complementam-se...
foi traduzido, pode ter erros!
David Kirk: SPE and RSX can work together. SPE can preprocess graphics data in the main memory or postprocess rendering results sent from RSX.

Nishikawa's speculation: for example, when you have to create a lake scene by multi-pass rendering with plural render targets, SPE can render a reflection map while RSX does other things. Since a reflection map requires less precision it's not much of overhead even though you have to load related data in both the main RAM and VRAM. It works like SLI by SPE and RSX.

David Kirk: Post-effects such as motion blur, simulation for depth of field, bloom effect in HDR rendering, can be done by SPE processing RSX-rendered results.

Nishikawa's speculation: RSX renders a scene in the main RAM then SPEs add effects to frames in it. Or, you can synthesize SPE-created frames with an RSX-rendered frame.

David Kirk: Let SPEs do vertex-processing then let RSX render it.

Nishikawa's speculation: You can implement a collision-aware tesselator and dynamic LOD by SPE.

David Kirk: SPE and GPU work together, which allows physics simulation to interact with graphics.

Nishikawa's speculation:
For expression of water wavelets, a normal map can be generated by pulse physics simulation with a height map texture. This job is done in SPE and RSX in parallel.
 
Ja tive a ver as entrevistas onde eles dizem k o killzone é em tempo real.

Espero bem k seja verdade, mas tendo em conta o graficos do HL2 k corre bem em hardware de 200€ imaginem o k é possivel com o sucessor do R520 :eek: , disponivel de aki a 1 ano.

Vendo assim as coisas a demo do killzone n é assim tão irreal.
 
ja nem sei...

Posso é dizer que nestes ultimos 6 dias, as pessoas curiosamente perderam a noção do que é um verdadeiro CGI

comparem o CGI do trailer ghost Recon3 (x360)
http://gameover.files.sapo.pt/ghostrecon3_e35.wmv

com o suposto CGI do Killzone (ps3)
http://gameover.files.sapo.pt/killzone_ps3_e35.wmv

qual deles parece mais CGI ?.... a "baixa qualidade" da cena debaixo da ponte do killzone faz-me rir de pensar que aquilo é cgi.
Por outro lado, por nao estar habituado a ver um jogo desta qualidade e ritmo, faz-me pensar que é Cgi.

em setembro descobrimos mais (TGS)
 
http://gear.ign.com/articles/615/615521p1.html

E3 2005: Cell Processor Technology Demos

IBM takes a through a series of demos highlighting the Cell's processing prowess.
May 17, 2005 - As part of its technical showings at E3 2005, IBM set up a demo event showcasing the Cell processor. Created by Sony, IBM and Toshiba, the Cell processor will be the heart of Sony's forthcoming PlayStation 3, officially unveiled yesterday at its press conference.

IBM's presentation consisted of a set of computationally-intensive demos, intended to show off the number-crunching power of the Cell's individual processing units. Each Cell processor is made up of one ***** Processing Element (PPE) and eight Synergistic Processing Elements (SPEs). The PPE is in charge of feeding instructions to the eight SPEs, which are capable of working individually on tasks without the need to reference the other SPEs. In short, a single Cell processor is capable of running eight separate tasks simultaneously at its full operational speed (3.2GHz in the case of the demoed CPUs), plus whatever you can throw at the PPE.

The first demo we saw was a ray-traced landscape demo, which was also shown at Sony's PlayStation 3 press conference yesterday. Height field data acquired by LIDAR (light RADAR basically) was combined with a color overlay taken via satellite imagery to create a realistic 3D rendering of the Mount St. Helens volcanic area.

The key to this demo was that the imagery was ray-traced in realtime solely via a pair of Cell processors. Instead of using a video card to display the graphics (thereby limiting the "wow" factor), the Cell processors rendered the image to a series of JPG images, which were then streamed to a standard G5 tower over the network. Each image was rendered at 1280x720, creating a 720p high-definition scene of the area.

A switch allowed for turning on colored stripes that represented what each SPE was rendering at any given moment, updated in realtime. As more complex areas entered the view, the SPEs would dynamically scale how much of the scene they were rendering so that the framerate stayed even (and solid) throughout the demo.

The next demo was based on a new cloth simulation algorithm being worked into Maya. Again using two Cell processors, the demo was able to run 16 separate simulations simultaneously. Each piece of cloth was defined by 300 vertices, but the real kicker with this demo is that the algorithm incorporated self-intersecting physics, keeping the cloth from flowing through itself. This sort of simulation is much more computationally-intensive than simulating a cloth against another object.

Next up we checked out a set of blade servers, each set up with two Cell processors. They weren't final design quite yet, but when finished they'll sport a double-width size while still being able to keep the processors quite cool. In fact, as the blades were open we could test the heat coming off of them and it felt reasonably cool, cooler than many of our high-end PCs back at the IGN offices. This bodes well for heat-issues, or more correctly the lack thereof.

Lastly, we saw a demo of a network game with entirely server-side physics. The goal here was to prove that a high-end server could run some of the most computationally-intensive parts of a game, saving the client machines from having to process what would wind up being redundant data. The demo featured some huge mechs, large buildings and a couple tanks. As parts of an object were fired upon, pieces of it would crumble off and collide and bounce with surrounding objects. While it honestly wasn't the most impressive piece of physics tech we've ever seen, the fact that it was all running server-side was kinda neat.

That ended our demo time with the Cell processor. While a couple of the demos were quite impressive, like the cloth and landscape demos, the coolest part was actually seeing Cell processors up and running right in front of us. Sure, we saw the same thing yesterday at the Sony press conference, but in those cases the hardware was hidden. It's reassuring to actually see the processors cranking out data right in front of our eyes.
-- Chris Roper
 
|Oc|CRASH_OVer disse:
ja nem sei...

Posso é dizer que nestes ultimos 6 dias, as pessoas curiosamente perderam a noção do que é um verdadeiro CGI

comparem o CGI do trailer ghost Recon3 (x360)
http://gameover.files.sapo.pt/ghostrecon3_e35.wmv

com o suposto CGI do Killzone (ps3)
http://gameover.files.sapo.pt/killzone_ps3_e35.wmv

qual deles parece mais CGI ?.... a "baixa qualidade" da cena debaixo da ponte do killzone faz-me rir de pensar que aquilo é cgi.
Por outro lado, por nao estar habituado a ver um jogo desta qualidade e ritmo, faz-me pensar que é Cgi.

em setembro descobrimos mais (TGS)

so por um "parecer mais cgi" invalidade que não possam ser os dois............bem lol
 
viste os 2 cgi frame a frame?
sim? nao?... fazes a minima ideia em que aspecto de Cgi falei? entao mete o "lol" onde o sol nao brilha..

vai dar uma voltinha e volta para participar com coisas uteis em vez de criticar.
Não vi NADA teu neste sub-forum que nao fosse mandar abaixo as opiniões dos outros.... deves-te achar presidente.

Bolas, até digo mais... nao vi nada teu no forum TEchzone INTEIRO que nao fosse mandar abaixo, sejam opiniões sobre carros consolas hardware etc etc. Contributo = zero / Meter nojo = 100%
...
Pensas que um gajo é burro.. é tao claro com água, basta alguem te contradizer e ficas pior que uma gaja "SPM"! e pior ainda, o efeito é permanente...

pensa antes de postar...
 
eu passo-me..... ele é em todo o lado. Embirrei com ele uma vez quando ele foi mal educado noutra thread há ENE de tempo atras, e Agora é sempre isto seja qual for o assunto. Parece uma gaja embirrada.

Nunca o provoco por iniciativa, mas respondo...ai respondo!
 
Back
Topo