Macci com uma X800 XT

Shadow disse:
Não sou faccioso, mas temos que admitir que com um chip novo a Nvidia havia de ter deixado de lado os tais "Bugs" que teimam em andar lado a lado com cada set novo de drivers, havia também de orientar a estrutura tanto do hardware tanto da maneira como as instruções são percebidas pelo mesmo.

É o software e os drivers que se têm que adaptar ao hardware e não o contrário. A nVidia sempre foi perita em sacar mais performance dos drivers, e quem agora diz mal e lhes chama cheats, quando andavam todos contentes com as suas "uber-Ti4xxx" agradeciam aos "Deuses" por mais performance.

Eu penso que deveria "comer" tudo o que lhe dessem (Jogos, etc) sem ter que se preocupar se esta ou aquela aplicação terá a devida compatibilidade com o hardware e deixar de desembolsar fundos para influênciar os programadores a escrever o "path" que mais convém à Nvidia.
Não digo que fosse possivel fazer isso, pois podia não morrer da doença mas da cura...

Se calhar, na óptica dos engenheiros da nVidia, conseguem-se melhores resultados com uma relação hardware/software mais estreita e específica do que as "generalidades" do DX. Até agora a abordagem da ATI tem-se provado superior. Fizeram um tremendo trabalho com o R300, do qual ainda vivem dos frutos.

Antes de ser lançada a X800 foi-o a 6800U e pelos testes que lhe fizeram disseram que era impossivel a ATI aparecer com um produto superior (pelo menos era o teor das afirmações/papaias que se mandavam), o que se veio a revelar que esses ditos eram errados.

Ainda bem que assim é. O que se pretende é cada vez mais performance e qualidade.

Agora mesmo com testes e comparativos com "bugs" à mistura, não conseguem ver a luz ao fundo do tunel?

Vê lá se essa luz não é o comboio.
O que nós temos capacidade de ver é que o nV40 ainda possui muita margem para melhorias, em vários capitulos. Melhor exemplo disso foi o nV30, do qual ainda se conseguiu fazer um produto concorrente, de um fosso inicial gigantesco. A nV40 está muito mais perto. E na medida que representa um salto tecnológico (em termos teóricos e de arquitectura) deposito-lhe muitas esperanças.

ps . Se neste momento tivesse que comprar uma gráfica optava pela X800XT, mas isso pode mudar daqui a pouco tempo.
 
Que bom que é comparar placas que não são do mesmo segmento.

eu digo-te para quem é bom!...... para nós! :)
isso das Gamas diferentes é "lixar" nelas.... so serve pra fazer reviews politicamente correctas... Mas aqui pra nos, nao ha gamas, ha potencial de performance

Entao nao se pode comparar gamas diferentes....?
ta bem, se assim fosse ninguem comprava os Mobile 2500+ porque sao de gama baixa comparados com os 3200+!
Entao, porque é que o ppl continua a comprar os Mobile?... porque OVerclockam pra cara*** e ultrapassam o "gama superior" 3200+...


cumps
 
De um 2500+ para um 3200+ a diferença está no clock, mais nada. Não se pode dizer o mesmo da Pro/XT. Não inventem. Querem comparar overclocks comparem chip a chip, não alfarrobas/cenouras.

Em relação aos bugs das drivers 61.xx, até agora ainda ninguém provou que se perdeu alguma coisa para ganhar performance, os gajos do Driverheaven ainda inventaram um teoria, mas fizeram figura de parvos.
 
Shadow disse:
Não sou faccioso, mas temos que admitir que com um chip novo a Nvidia havia de ter deixado de lado os tais "Bugs" que teimam em andar lado a lado com cada set novo de drivers, havia também de orientar a estrutura tanto do hardware tanto da maneira como as instruções são percebidas pelo mesmo.


Tu podes não ser faccioso, mas a tua fonte é e muito!!!
 
Sim, um AthlonFX51 a 3.160MHz deve fazer pouca influencia no score, para ai 25k marks são quase devidos só ao sistema! :D

Curiosamente ele afirma que não consegue mais porque está no limite do sistema... E apesar de não ter volt mods, está tudo arrefecido por Phase Change estilo "prometeia" com R404a... portanto não esperem estes scores "normalmente!"
 
De um 2500+ para um 3200+ a diferença está no clock, mais nada. Não se pode dizer o mesmo da Pro/XT. Não inventem. Querem comparar overclocks comparem chip a chip, não alfarrobas/cenouras.

nao distingui overclocks das duas.... apenas disse que Gamas nao tem nada haver no resultado final....

se uma de gama inferior tem performance superior ás outras porque consegue mais overclock, fixe! temos campea!.... aqui ninguem duvida... (ti4200 ring a bell )

Gamas nao teem nada haver no resultado final...
 
Faccioso

Dito pelo Raptor:"Tu podes não ser faccioso, mas a tua fonte é e muito!!!"
A minha principal fonte neste assunto é este forum, estou só a fazer um apanhado do que se tem dito aqui ao longo desta "novela"...
Consultei alguns sites cujos links foram providenciados por nossos companheiros aqui no forum, o que também contribuiu para a construção da minha opinião sobre este assunto.
concordo que a Nvidia empreendeu muito esforço para nos oferecer um produto excelente, que o é, mas continuo a não concordar com a politica do path de programação que melhor serve o hardware da Nvidia.Para mim é uma fraqueza pois de cada vez que sair um jogo tem que se ver se está a correr bem , senão lá vão fazer mais uma versão de Forceware.... :rolleyes:
E quando aparece o logo "The way it´s meat to be played" e a aplicação corre melhor em ATI, é mais murro no estômago que a Nvidia recebe, porque se isso realmente acontece então é porque o hardware da nvidia não é suficiente para a ATI mesmo com o path optimizado para a Nvidia.
 
SilveRRIng disse:
É o software e os drivers que se têm que adaptar ao hardware e não o contrário. A nVidia sempre foi perita em sacar mais performance dos drivers, e quem agora diz mal e lhes chama cheats, quando andavam todos contentes com as suas "uber-Ti4xxx" agradeciam aos "Deuses" por mais performance.


engraçado eu jurava que vejo é o hardware e os drivers a se adaptarem ao software

cada aplicação que sai pra pc é preciso mais cpu mais memoria ou mais grafica , optimizar o software como deve ser dá muito trabalho

quanto ao performance dos 4*.**

tens razão mas muitos com olhinho reparam na diferença de qualidade dos drivers texturas com menos cor e etc ;) porque os mais iluminados acharam muito estranho a um boost milagroso , quando o publico ficou a saber a razão do uber performance é que foi mais engraçado , foi uma empresa que perdeu muita integridade a vista de muita gente e mais piada teve porque foi essa companhia que se chibou toda do caso "quak" nas 8500 , hipocrisia é uma coisa que detesto ....

quanto a polemica cheats ou optimizações é muito facil de ver , o ppl com palas nos olhos e casmurro é que gosta de inventar sempre por a confusão onde nao existe so pra ver se arranja argumentos pra teimar

escolher um setting e levar com outro deve ser optimização ...(sarcasmo)

eu quando tinha nvidia e quando soube da verdade foi antidetect sempre

quanto as ultimas graficas quando comprar uma vai ser a que me der o melhor bang for the buck e tenho aqui um dedo que adivinha e acho que vai ser uma ati ;)


crashoveride

good point ;) tão bom que nem da hipotese de resposta ;)
 
|Oc|CRASH_OVer disse:
eu digo-te para quem é bom!...... para nós! :)
isso das Gamas diferentes é "lixar" nelas.... so serve pra fazer reviews politicamente correctas... Mas aqui pra nos, nao ha gamas, ha potencial de performance

Entao nao se pode comparar gamas diferentes....?
ta bem, se assim fosse ninguem comprava os Mobile 2500+ porque sao de gama baixa comparados com os 3200+!
Entao, porque é que o ppl continua a comprar os Mobile?... porque OVerclockam pra cara*** e ultrapassam o "gama superior" 3200+...


cumps

Lê o post anterior do Shadow. O meu post não tem nada a haver com isso.
O site onde ele foi buscar a info estava a comparar o Pro com a Ultra e a mim "apeteceu-me" comparar a GT com a XT.
Se a Pro é apetecivel pelo OC, no mesmo barco está a GT. Não se pode é olhar só para um dos lados, como aquela quote do site estava a fazer.
 
SKATAN disse:
engraçado eu jurava que vejo é o hardware e os drivers a se adaptarem ao software

cada aplicação que sai pra pc é preciso mais cpu mais memoria ou mais grafica , optimizar o software como deve ser dá muito trabalho

O hardware evolui obviamente pelas exigências crescentes do software. É desenvolvido a pensar naquilo em que vai trabalhar, mas uma vez feito e produzido, ao se descobrir falhas a nivel de software é este que é alterado e corrigido, não vais fazer mudanças nas máscaras do CPU ou lançar um novo GPU, concerteza. No tempo dos 386 e 486, em que a evolução do hardware era BEM mais lenta, optimizava-se o software ao máximo para tirar partido do hardware. Hoje em dia já não é tanto assim, não há tempo.

Arquitecturas novas de CPU's saiem de 3 em 3 ou mais anos (assim por alto). De gráficas de ano a ano, dependendo do que se considera nova arquitectura. Isto serve para dizer que será sempre muito mais fácil lançar patches e drivers correctivos, alterando linhas de código do que ter que fazer alterações ao hardware. Acho que isso nem está sob discussão.

quanto ao performance dos 4*.**

tens razão mas muitos com olhinho reparam na diferença de qualidade dos drivers texturas com menos cor e etc ;) porque os mais iluminados acharam muito estranho a um boost milagroso , quando o publico ficou a saber a razão do uber performance é que foi mais engraçado , foi uma empresa que perdeu muita integridade a vista de muita gente e mais piada teve porque foi essa companhia que se chibou toda do caso "quak" nas 8500 , hipocrisia é uma coisa que detesto ....

quanto a polemica cheats ou optimizações é muito facil de ver , o ppl com palas nos olhos e casmurro é que gosta de inventar sempre por a confusão onde nao existe so pra ver se arranja argumentos pra teimar

escolher um setting e levar com outro deve ser optimização ...(sarcasmo)

eu quando tinha nvidia e quando soube da verdade foi antidetect sempre

quanto as ultimas graficas quando comprar uma vai ser a que me der o melhor bang for the buck e tenho aqui um dedo que adivinha e acho que vai ser uma ati ;)

Os cheats da nVidia são um pouco como os jogadores que cheatam nos jogos. Estão na "mó" de baixo e não conseguem competir. Têm que recorrer a artimanhas menos "honestas" para o conseguir. O "quak" deu-se quando a ATI estava por baixo. As "optimizações" da nVidia, com baixa de qualidade deram-se com as R3xx da ATI. Nada disto dá legitimidade a esses actos, são apenas as razões.

O que eu acho é que não devemos crucificar constamente uma dada empresa por erros do passado. Tanto a ATI como a nVidia o fizeram, a ordem não me interessa. Ambas se "desmaracaram" uma à outra, por isso, isso agora é irrelevante. Interessa é saber se as optimizações se devem a melhorias de "paths" e afins ou percas de qualidade. Desde que eu "veja" o mesmo num jogo e a performance melhore, óptimo. Naturalmente prefiro a abordagem da ATI, que requer menos mexidas para correr os jogos (é mesmo Plug&Play :P) e por isso mesmo dou-me contente com a que tenho.
 
SilveRRIng disse:
Arquitecturas novas de CPU's saiem de 3 em 3 ou mais anos (assim por alto).

A média é quase 7 anos...

Tens P, a PPro, a Netbusrt, isto foram todas as arquitecturas da intel desde o P5C (tirando as do Pentium M e a IA64)
A AMD até hoje praticamente só teve a K7, cujo K8 é o mais novo descendente, mas é tudo o mesmo.
 
Tafinho disse:
A média é quase 7 anos...

Tens P, a PPro, a Netbusrt, isto foram todas as arquitecturas da intel desde o P5C (tirando as do Pentium M e a IA64)
A AMD até hoje praticamente só teve a K7, cujo K8 é o mais novo descendente, mas é tudo o mesmo.

Então e o K6 q até tens um na sig? Hmm? :rolleyes:

É certo que não fazia sombra a nenhum Pentium 2, principalmente em FPU, mas era uma granda malha. Tive um K6 e um K6-2. Era o que a carteira permitia.

Quanto às arquitecturas, eu nem me estava a referir às bases em si, mas em cada mexida, mais ou menos profunda (não os steppings) que se fazem, tipo Willamette-Northwood ou até mesmo K7-K8. O importante é referir que o hardware muda ciclicamente e o software que sai posteriormente, no que não funcionar bem com o primeiro tem q ser este o corrigido.
 
Que não tem qualquer relação sei eu.
E de pentium kitado nada tem, coitado, antes tivesse. Até surgir o K6-2(basicamente cache L2) era este q tinha q competir com o Pentium2 e se já não fazia sombra ao pentiumMMX contra esse então via-se grego.
 
SilveRRIng disse:
Que não tem qualquer relação sei eu.
E de pentium kitado nada tem, coitado, antes tivesse. Até surgir o K6-2(basicamente cache L2) era este q tinha q competir com o Pentium2 e se já não fazia sombra ao pentiumMMX contra esse então via-se grego.

Nem por isso...
O campeão da performance até aos 450Mhz era uma coisa que nuna houve muito, o K6-III, infelismente era de difícil produção, mas o core era o mesmo.

O problema do K6 e do K6-2 nunca foi competir com o PII, mas sim com o PIII quando estes apareceram, e muito devido ao calor gerado, o que fez com que nunca atingissem grandes velocidades. Depois apareceu o K7...
 
E duma thread da X800Xt conseguimos chegar ao AMD K6. LOL :joker:

Deves ter razão nos timings dos produtos. Já n me recordo bem de quem competia com quem. Acho q era do tipo K5->P1 K6->P2, K6-2->P3. O K6-3 é como dizes, custava a produzir e resumia-se ao aumento da cache L2.

errrr.... ONTOPIC :P

Essas X800XT ja chegavam!!
 
SilveRRIng disse:
E duma thread da X800Xt conseguimos chegar ao AMD K6. LOL :joker:

Lololololol blast from the past! tamos a andar para tras! :D

eu axo q li em qq lado q o score de 13000 marks q o macci fez foi numa demonstração oficial da ATI! e verdade?
 
Back
Topo