Gráfica Nvidia Ampere 8nm (RTX 3000 series)

para mim as gigabyte desta serie sao das mais feinhas.. as eagle e GOc parece que cortaram um bocado ai a frente.. e as master e/extrme sao gigantes e com uma ventoinhas estranhas.. podem ser muito boas e afins.. mas o design e muitoo esquisito..
 
Depois da série Maxwell, nunca mais consegui gostei de nenhuma Gigabyte. Olhar para a minha velhinha Gigabyte 980Ti Gaming G1 e depois olhar para isso, que retrocesso...

De qualquer forma, nunca deixaria de comprar uma gráfica unicamente pela estética. É para estar dentro da caixa, desde que seja competente, é o fundamental.
 
E isso é bom ou mau ? Isso faz delas mais eficientes que máquinas próprias ?
Os comentários não ajudaram nada, uns diziam que era bom, outros diziam que não era nada de especial e que havia melhor.
 
aparentemente nem por isso.. sao boas individualmente..
..mas segundo os comentarios dos entendidos, conseguem em media 100MH com 2 RX5700 a gastar 200w as duas.. logo mais um bocado de escavaçoes e menos 1 terço de consumo..
 
E isso é bom ou mau ? Isso faz delas mais eficientes que máquinas próprias ?
Os comentários não ajudaram nada, uns diziam que era bom, outros diziam que não era nada de especial e que havia melhor.

Parece que duas RX 5700XT são melhores e mais baratas que uma RTX 3080 a minar, ou seja, acho que podemos estar descansados que o mining não vai rebentar com o stock.
 
E isso é bom ou mau ? Isso faz delas mais eficientes que máquinas próprias ?
Os comentários não ajudaram nada, uns diziam que era bom, outros diziam que não era nada de especial e que havia melhor.

RX 5700 = 54 MH/s / 180 W TDP = 0,3
RTX 3080 = 81 MH/s / 320 W TDP = 0,253125

Parece-me que é mau e isto sem sequer entrar na questão do preço e acessibilidade das duas.
 
indo por este principio.. "preocupa-me" mais quem está a espera das RDNA2.. porque se tem melhor performance e menos consumo.. secalhar vai ser o holy grail do nimanço.. a ver..
 
será que a meia noite os sites já vão dar para comprar as miseras unidades?

A data de lançamento é dia 17.

Para não parecer mal é possível que esteja à venda durante 5 minutos uma unidade "dummy" que não existe num site ou noutro. Das lojas que contactei pelo menos tiveram a coragem de dizer que nem sequer chegou para a malta que lá trabalha , com sorte só a versão da MSI no fim do mês.

Como tal vai ser preciso provavelmente mais do que sorte.
 
Não esquecer que podem haver optimizações para puxarem menos energia da corrente e com o mesmo desempenho como quando andei investido nesse mercado com a RX 480 que coloquei a mesma a gastar 75W em mining.
 
Futurlogia

Rasterizantion:
Ganhos em 1440p High Frame_Rate não vão ser impressionantes, mas vao ser bons.
Ganhos em 4K vao ser impressionantes,as Turing estavam engasgadas em memory bandwidth em 4K, por isso tivemos a Nvidia a dar com os 4K na apresentação e o "bench comprado" a DF exclusivo em 4K, e a Nvidia a puxar Micron para desenvolver as GDDR6X.

Computing:
Bons ganhos mas não o melhor performance/watt

RTX/AI(DLSS)
Excelentes ganhos especialmente ao mesmo price point que esteve a 2080.
 
RX 5700 = 54 MH/s / 180 W TDP = 0,3
RTX 3080 = 81 MH/s / 320 W TDP = 0,253125

Parece-me que é mau e isto sem sequer entrar na questão do preço e acessibilidade das duas.
Atenção que o TDP da rx 5700 é de 225W, no mining consome 180w o TDP da RX 3080 é de 320W e com toda certeza não vai debitar 320W a minar :D

EDIT: E o ROI da rx 5700 é entre 150/200 dias 350€ enquanto o ROI da RX 3080 de 150/200 dias vai ser quase o dobro no mesmo período de tempo, assim recuperas o ROI as novas RX fazem muito mais cash, e falta o "ohgodanethlargementpill" nas Gddr6X como aconteceu nas Gddr5X que deu um boost 40% MHs a 1080 e 1080ti, uma rtx 2080 faz perto de 35Mhz uma 1080ti com o "ohgodanethlargementpill" faz +/- 55MHs, uma coisa é 8GPU x 54 Mhs e outra coisa é 8GPU x "90" MHs depois do ROI qual compensa mais ? :berlusca:
 
Última edição:
Atenção que o TDP da rx 5700 é de 225W, no mining consome 180w o TDP da RX 3080 é de 320W e com toda certeza não vai debitar 320W a minar :D

EDIT: E o ROI da rx 5700 é entre 150/200 dias 350€ enquanto o ROI da RX 3080 de 150/200 dias vai ser quase o dobro no mesmo período de tempo, assim recuperas o ROI as novas RX fazem muito mais cash, e falta o "ohgodanethlargementpill" nas Gddr6X como aconteceu nas Gddr5X que deu um boost 40% MHs a 1080 e 1080ti, uma rtx 2080 faz perto de 35Mhz uma 1080ti com o "ohgodanethlargementpill" faz +/- 55MHs, uma coisa é 8GPU x 54 Mhs e outra coisa é 8GPU x "90" MHs depois do ROI qual compensa mais ? :berlusca:

Por acaso agora é que reparei na tabela que o Videocardz colocou no artigo:
T35TDXE.png


https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

A 65%, tanto em Stock como em OC, ela tem quase a mesma performance que em 100%. A 65% daria por volta de 210 W, o que de facto muda muito o cenário.

Agora fico curioso o que estará a limitar a performance a partir dos 65%. Eu não estou dentro deste mundo de cryptocoins. Será a Bandwidth à VRAM?
 
Por acaso agora é que reparei na tabela que o Videocardz colocou no artigo:
T35TDXE.png


https://videocardz.com/newz/nvidia-geforce-rtx-3080-ethereum-daggerhashimoto-mining-performance

A 65%, tanto em Stock como em OC, ela tem quase a mesma performance que em 100%. A 65% daria por volta de 210 W, o que de facto muda muito o cenário.

Agora fico curioso o que estará a limitar a performance a partir dos 65%. Eu não estou dentro deste mundo de cryptocoins. Será a Bandwidth à VRAM?
A maior parte dos miners fazem target MH's por consumo o tal sweet spot :berlusca:

EDIT: E se sair o "ohgodanethlargementpill" para GDDR6X upa upa
 
Em relação às entradas HDMI2.1, vamos ter de comprar também novos cabos certo? Tanto nas gráficas como nas novas consolas.

Nunca vi uma gráfica incluir cabos HDMI
 
Back
Topo