1. Este site usa cookies. Ao continuar a usar este site está a concordar com o nosso uso de cookies. Saber Mais.

NV50/G70 Rumors

Discussão em 'Novidades Hardware PC' iniciada por blastarr, 16 de Abril de 2005. (Respostas: 20; Visualizações: 1413)

  1. blastarr

    blastarr Power Member

    http://www.vr-zone.com/?i=2010&s=1

    Quote:

    "
    Next Gen GPUs Info : R520 & NV50/G70

    ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June.
    NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy.
    None the least, we heard that NV50/G70 is a dual-core monster with 32 pipelines and is based on TSMC 90nm process technology.
    ATi R520 is also 90nm based and contains 32 pipelines.
    The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan.
    We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology "

    Tb se diz q a NV50/G70 é apenas um refresh baseado na NV4x, mas caso fosse dual-core, não poderiam ser dois cores 6800 numa só GPU, ligados por algum algorítmo SLI interno ?
    Questions, questions...
     
  2. Raptor

    Raptor OC Legend

    Poderá ser alguma ideia baseada na técnologia SLI, mas integrado no core... fazia todo o sentido.

    Estou extremamente curioso para ver o que o futuro nos reserva. :)
     
  3. BarroZo

    BarroZo Power Member

    a este ritmo qual :wow: quer dia um pc e so a placa gráfica
     
  4. Horus-Anhur

    Horus-Anhur I folded Myself

    Mas a gigabyte já lançou uma placa com dois chips nv40 no mesmo pcb ligados coma tecnologia SLI.
    S fosse assim não era novidade nenhuma.
     
  5. DJ_PAPA

    DJ_PAPA Power Member

    NAO!!! Tudo menos isto!!!!

    De certeza que é falso. Algum dia as high-end vao levar com a mrd* do turbo cache.
    Isso era matar a grafica.

    Mas parece que os 32 piplines vao vir em força na proxima geraçao! Será que a Nvidia tb optou pela unificaçao dos pixelshaders e dos vertexshaders, como a R520?
     
  6. Nemesis11

    Nemesis11 Power Member

    O turbo-cache pode não ser falso nas topo de gama, se for "virtal memory" à la 3DLabs.

    Mas não acredito muito na noticia.
     
  7. Me and you

    Me and you Power Member

    a ati r520 ja deve ter su+porte pa ps 3.0, n?
     
  8. Horus-Anhur

    Horus-Anhur I folded Myself

    Pelo q ouvi dizer a r520 já suporta SM3.
    Não é dificil. O Shader path da x800 é muito parecido com o SM3, só lhe falta algumas capacidades.
     
  9. Helixsk8

    Helixsk8 I quit My Job for Folding

    Só espero é que se a noticia for mesmo verdade a a proxima geração da nvidia for mm dual core, continuemos a ter a opção para fazer sli (LOOL um pc com 4 gpu...) pois com as dual core 6800 ultra que ja vi (a asus por exemplo) elas não podem ser ligadas a outra gráfica pois n suportam sli (só o sli na propria board da gráfica)
    E o mais importante!!!
    Que nao façam um aspirador (o k duvido)... A pesar de serem dois cores, pff que metam uma ventoinha de 120mm com toneladas de heatpipes, mas n nos massacrem com outra 5800 ultra :joker:
    Abraço.. Aguardo novidades...
     
  10. blastarr

    blastarr Power Member

    Pessoalmente, acho que é a Turbocache que vai revolucionar o mercado da memória RAM. Pq ?

    Pensemos bem, uma placa gráfica de topo tem sempre memória onboard em quantidades generosas, servindo estas para alimentar o framebuffer e guardar texturas, geometria, etc, etc.
    Se repararmos com mais atenção, grande parte dessa memória n é usada pelas texturas, mas sim para calcular coisas como TnL, pixel/vertex shaders, geometria, que precisam de acesso rápido.

    Agora, se se arranjar maneira de aproveitar o endereçamento alargado de RAM do sistema proporcinado pelos cpu's de 64 bit, convertendo uma parte em armazenamento das texturas mais usadas (tipo uma memória cache, por assim dizer), teremos jogos e aplicações com acesso muito mais rápido, pois texturas de altíssima resolução n precisam de estar num disco rígido de acesso mais lento. Toda a gente diz mal do Turbocache e do Hypermemory, mas só têm sido usadas em placas com pouca memória e pouco poder da GPU.

    Nunca vimos o sistema a funcionar com placas de topo, onde o preço da memória GDDR tem um peso elevadíssimo no custo final.
    Se se fizer o off-load de texturas para a ram do sistema, a RAM da gráfica pode ser melhor aproveitada para antialiasing, por exemplo.
    Tenho algum sentido nas minhas suposições ? Acredito q sim.
     
  11. blastarr

    blastarr Power Member

    Dois chips sim, mas isso é o mesmo q comparar uma mboard com dois opteron, com um só opteron com dois cores, cada uma das soluções tem vantagens e desvantagens inerentes.
     
  12. Helixsk8

    Helixsk8 I quit My Job for Folding

    Concordo plenamente Penso que o unico probloema do turbo cache será mm a redução na memória da grafica, ficando esta mais dependente da memória ram... Que sempre é bastante mais lenta... Se as gráficas topo continuarem a veir com os habituais 256 ou mm 512, Mesmo que venham com o turbo cache em principio penso que nao teremos nada a perder no desempenho.. Agora se começarem a vir graficas com 128mb para a linha topo.. Penso que ao ficarem muitas texturas na memória do sistema teremos uma perda de FPS. Mas sinceramente... Eu espero para ver... nunca se sabe... Principalmente porque estão para entrar para o mercado das Rams memórias bastante rápidas... Com a introdução das mesmas penso que o turbo cache se tornará uma clara vantagem
    Abraço!
     
  13. JPgod

    JPgod Moderador
    Staff Member

    Entre tudo o que eu li, destaco isto:

    Parece-me um GPU fraquito :D Agora é 2x 16 pipes ou 2x 32 pipes (não me parece, era bom era :P )

    Agora estou imaginando:

    2x NV50 por placa e ambas ligadas em SLI

    Pois é! 8x cores! O milagre da multiplicação dos pães!!

    Isto está a escalar a uma velocidade INCRIVEL!! :wow:

    Isso é tudo bonito, mas se vier um vulcão e preços exorbitantes, para min = "LIXO"... (claro que me refiro a 1 placa com 1 NV50 apenas e não a situação que descrevi acima)
     
  14. blastarr

    blastarr Power Member

    Eu já considero exorbitantes os preços das placas actuais.
     
  15. JPgod

    JPgod Moderador
    Staff Member

    Exatamente :P Por isso que faço a festa com uma 6600 GT de 190 € :P

    Mas tipo uma 6800 ultra são 500-600 € e as novas tão a apontar para os 1000 € :(
     
  16. BonJouR

    BonJouR [email protected] Member

    Alguém faz ideia de quando estas gráficas (R520 e NV50/G70) estarão disponiveis? Ou pelo menos quando são as datas de lançamento?
     
  17. Xpirit

    Xpirit Banido


    SLI é apenas um nome para o marketing. Tudo se resume ao processamento paralelo. Obviamente que este também irá chegar na forma dual-core às gráficas. É muito mais simples baixar a 65nm e espetar dois cores num GPU. É bem mais fácil do que desenvolver um novo GPU com mais pipelines, +, +. A diferença entre os dual-core CPU e dual-core GPU é que este última é mais fácil de meter a funcionar pq cada core tem o seu objectivo - a sua tarefa bem definida. Um trata da primeira metade da imagem enquanto o outro da segunda ou outra divisão qualquer. É claro que é necessário incluir toda a lógica para ligar os cores para fazer o *SLI*.
    Vantagens e desvantagens. A memória total (2 cores ou 2 gráficas) passa a ser mais local. Dois cores tornam-se mais esfomeados e há que aumentar a largura de banda para as memórias (ou então ter paths/memórias distintos). Isto implica board's um pouco mais complexas e caras. Bom, mas isto pro's gamers é irrelevante não é?
     
  18. blastarr

    blastarr Power Member

    Tudo no processamento gráfico é paralelo, é uma das vantagens das GPU's.
    Ser dual core 16 de pipelines cada ou ter 32 pipelines numa só é exactamente a mesma coisa em termos prácticos, aliás, a ATI tb faz isso há anos, tal como fazia a Quantum3D com os chips 3dfx e aínda faz agora com os da Nvidia.
    Sim, é necessário replicar a informação do framebuffer, mas é um mal necessário e placas de topo já possuem hoje em dia buses de memória de 256 bit e GDDR3 (futuramente serão XDR, concerteza...), com muito mais largura de banda total do q um cpu.
    Se é só marketing e n dessem benefícios nenhuns, pq é q os militares adoptaram essas soluções em simuladores de vôo, por exemplo ?

    A única diferença é que, com dual-core, a produção de um chip mais potente é muito menos complexa, sendo q, caso um dos cores ou parte de um dos seus quads esteja danificado, é possível utilizar o restante numa placa de gama inferior.
    Ng viu aínda softmods para activar registers num cpu general purpose (a n ser q a cache escondida dos Thorton tenha algum deles escondido... :P).

    Os ciclos de desenvolvimento de GPU's de arquitecturas verdadeiramente novas esbarrou no mesmo obstáculo de cpu's como o P4, Athlon64 e PowerPC, o consumo de energia e dissipação sob a forma de calor.
    Daí a tendência para o processamento paralelo distribuido, que nunca beneficiará os gráficos como o faz noutras coisas, pois já eram paralelismos antes, dentro de um só chip.
    É uma pura questão de economia de escala e de racionalidade.
     
  19. blastarr

    blastarr Power Member

    Como o Cell, não ? :007:
     
  20. Xpirit

    Xpirit Banido

    Convém ler o que os outros escrevem!

    Eu disse "Tudo se resume ao processamento paralelo. Obviamente que este também irá chegar na forma dual-core às gráficas"

    O " na forma dual-core" não está lá só para enfeitar. Referia-me ao processamento paralelo na forma dual-core. O paralelo que tu falas existe em quase tudo e em qualquer CPU. Se assim não fosse ainda andariamos a passo de caracol.

    É falso dizer que 2 x 16 pipelines (dual-core) = 32 pipelines quer em planos teóricos ou práticos mas não me vou alongar. Quando digo que o SLI é apenas um nome para o marketing estava a falar na palavra em sí e não ao conceito ou a tecnologia ser irrelevante. Esse é conhecido por processamento paralelo (multi-cpu/core). Mais uma vez convém ler bem e sobretudo ler a thread toda para se perceber em que contexto está a discussão.

    Finalmente dizes,
    "Daí a tendência para o processamento paralelo distribuido, que nunca beneficiará os gráficos como o faz noutras coisas, pois já eram paralelismos antes, dentro de um só chip"
    Ora é exactamente o contrário. O processamento paralelo distribuido (ah, aqui já distingues os vários níveis de paralelismo logo não se percebe então a lenga-lenga inicial do teu post) beneficia em muito o processamento gráfico simplesmente porque é essencialmente (intrinsecamente) paralelo. Por isso é que o processamento paralelo tem um tradição de vários anos na renderizaçao gráfica professional para a industria cinematográfica. Um dos programas paralelos mais falados pela comunidade menos especializada em computação paralela é o Pov-ray paralelo. Chega ao cúmulo de haver pessoas que se julgam especialistas em computação paralela só porque usam (ou põem a correr) o Pov-ray na sua versão paralela.
     
    Última edição: 17 de Abril de 2005

Partilhar esta Página