Memória DRAM JEDEC: DDR5 to Double Bandwidth Over DDR4, NVDIMM-P Specification Due Next Year

muddymind

1st Folding then Sex
JEDEC made two important announcements about the future of DRAM and non-volatile DIMMs for servers last week. Development of both is proceeding as planned and JEDEC intends to preview them in the middle of this year and publish the final specifications sometimes in 2018.

Traditionally each new successive DRAM memory standard aims for consistent jumps: doubling the bandwidth per pin, reducing power consumption by dropping Vdd/Vddq voltage, and increasing the maximum capacity of memory ICs (integrated circuits). DDR5 will follow this trend and JEDEC last week confirmed that it would double the bandwidth and density over DDR4, improve performance, and power efficiency.

Given that official DDR4 standard covers chips with up to 16 Gb capacity and with up to 2133-3200 MT/s data rate per pin, doubling that means 32 Gb ICs with up to 4266-6400 MT/s data rate per pin. If DDR5 sustains 64-bit interface for memory modules, we will see single-sided 32 GB DDR5-6400 DIMMs with 51.2 GB/s bandwidth in the DDR5 era. Speaking of modules, it is interesting to note that among other things DDR5 promises “a more user-friendly interface”, which probably means a new retention mechanism or increased design configurability.


Samsung's DDR4 memory modules. Image for illustrative purposes only.

Part of the DDR5 specification will be improved channel use and efficiency. Virtually all modern random access memory sub-systems are single-channel, dual-channel or multi-channel, but actual memory bandwidth of such systems does not increase linearly with the increase of the number of channels (i.e., channel utilization decreases). Part of the problem is the fact that host cores fight for DRAM bandwidth, and memory scheduling is a challenge for CPU and SoC developers. Right now we do not know how DRAM developers at JEDEC plan to address the memory channel efficiency problem on the specification level, but if they manage to even partly solve the problem, that will be a good news. Host cores will continue to fight for bandwidth and memory scheduling will remain important, but if channel utilization increases it could mean both performance and power advantages. Keep in mind that additional memory channels mean additional DRAM ICs and a significant increase in power consumption, which is important for mobile DRAM subsystems, but it is also very important for servers.

JEDEC plans to disclose more information about the DDR5 specification at its Server Forum event in Santa Clara on June 19, 2017, and then publish the spec in 2018. It is noteworthy that JEDEC published the DDR4 specification in September 2012, whereas large DRAM makers released samples of their DDR4 chips/modules a little before that. Eventually, Intel launched the world’s first DDR4-supporting platforms in 2014, two years after the standard was finalized. If DDR5 follows the same path, we will see systems using the new type of DRAM in 2020 or 2021.



Another specification that JEDEC plans to finalize in 2018 is the NVDIMM-P that will enable high-capacity memory modules featuring persistent memory (flash, 3D XPoint, new types of storage-class memory, etc.) and DRAM. The capacity of today’s NVDIMM-Ns is limited to the capacity of regular server DRAM modules, but the NVDIMM-P promises to change that and increase capacities of modules to hundreds of GBs or even to TBs. The NVDIMM-P is currently a work in progress and we are going to learn more about the tech in June.


fonte

Não esperem ver isto no mercado dos comuns mortais antes de finais de 2019 (sendo optimista :P)
 
(não havia nenhum topico dedicado a DDR5)

Engraçado em DDR5 cada Dimm por si vai ser dualchannel.. é um avanço engraçado; permitindo investir em single dims de maior tamanho em boards mais "fracas" com apenas 2 slots, ou para portateis ( normalmente tambem so teem 2 slots).

https://www.anandtech.com/show/1591...sed-setting-the-stage-for-ddr56400-and-beyond

Micron-Channels_575px.png
 
(não havia nenhum topico dedicado a DDR5)

Engraçado em DDR5 cada Dimm por si vai ser dualchannel.. é um avanço engraçado; permitindo investir em single dims de maior tamanho em boards mais "fracas" com apenas 2 slots, ou para portateis ( normalmente tambem so teem 2 slots).

https://www.anandtech.com/show/1591...sed-setting-the-stage-for-ddr56400-and-beyond

Micron-Channels_575px.png


Interessante isto ;) ou não :berlusca:

DDR5 memory standard to make a fairly important change to how voltage regulation works for DIMMs. In short, voltage regulation is being moved from the motherboard to the individual DIMM, leaving DIMMs responsible for their own voltage regulation needs. This means that DIMMs will now include an integrated voltage regulator, and this goes for everything from UDIMMs to LRDIMMs.nces.
 
Só para dar a nota que, se bem percebo, o bus "total" de cada DIMM é o mesmo de DDR4 e anteriores. Em vez de 1 canal num bus 64 bit, passarão a ser 2 canais de 32 bits.
Aliás ligado a isto, para mim a melhor noticia, se percebo bem, é que todos os DIMMs terão obrigatoriamente ECC. Aleluia!!!! Por isso, na verdade o bus "total" não é de 64 bit, mas sim de 80 bits ( 2 X 40 ). O problema aqui é que os DIMMs serão mais caros do que DIMMs Non-ECC, se existissem.
 
Engraçado em DDR5 cada Dimm por si vai ser dualchannel.. é um avanço engraçado; permitindo investir em single dims de maior tamanho em boards mais "fracas" com apenas 2 slots, ou para portateis ( normalmente tambem so teem 2 slots).

2 canais de 40bits dão um aumento de apenas 25% em relação a um de 64bits. Não é exactamente igual ao dual-channel como o conhecemos. De qualquer maneira, 25% de aumento de largura de banda ao mesmo clock por módulo já é qualquer coisa.

Quanto ao regulador de voltagem integrado parece uma coisa fixe para encarecer os módulos... Vamos lá ver se não acaba a ir pelo mesmo caminho do fivr dos haswel, que era muito bom a fazer dos CPUs fornalhas...
 
Well, afinal parece que havia topico.. mas não tinha movimento desde 2017 , não andei assim tanto para traz XD

Quanto aos reduladores de tensão integrados; aumenta o custo de cada Dimm, mas supostamente reduz o custo da motherboard. Uma board que 4 slots, tinha de ter regulador com capacidade para essas 4 slots, mesmo que não estivessem a ser usadas. Vamos ver..

Para quando está previsto a ddr5 no mercado? Senão for uma eternidade só troco de sistema nessa altura...
Fim de 2021 ou inico de 2022 ( para o mercado profissional costuma chegar sempre um pouco antes).
Se a minha maquina não me falhar até lá, tambem é quando devo fazer upgrade.

Final 2021/2022 será uma altura muito interessante para upgrades .
- DDR5
- PCIe 5.0
- Intel CPU's em 7nm em sistema MCM ( foveros)
- AMD Zen 4 em 5nm ( MCM - infinity fabric)
- Intel GPU's Xe dedicados 7nm em sistema MCM
- nVidia Hopper em 5nm em sistema MCM
- AMD RDNA 3 em 5nm ( MCM ?? )

Só faltava aqui a introdução de uma GDDR7 :002:, mas essa ainda deve demorar .

Não sei se alguma vez houve tanta nova tecnologia com aumentos significativos numa timewindow assim pequena..
 
Última edição:
@brruno , se estamos a falar de memória e futuro próximo, eu adicionaria HBM2E a essa lista. :)

https://www.anandtech.com/show/15892/sk-hynix-hbm2e-memory-now-in-mass-production

Já agora, É Intel Foveros. :)

Fovero, forevos.. é super cola 3 XD . corrigido ;)

----

Não falei HBM2E porque para 95% do mercado consumidor é irrelevante ; passa ao lado..
Estive agora a ver as specs, não te pouca BW / capacidade ? 24GB com 307 GBps por stack. Para ter boa BW pelo menos 2 stacks, que deve ter um custo um pouco proibitivo..
 
Não falei HBM2E porque para 95% do mercado consumidor é irrelevante ; passa ao lado..

Sim, nesse aspecto, deve continuar a ser irrelevante para grande parte do mercado consumidor.

Estive agora a ver as specs, não te pouca BW / capacidade ? 24GB com 307 GBps por stack. Para ter boa BW pelo menos 2 stacks, que deve ter um custo um pouco proibitivo..

Estás a fazer as contas com que Bandwidth por pin e com quantos chips por stack?

A nível de produtos anunciados, a Samsung está a produzir Stacks com 8 chips a 3,2 Gbits por pin. 8 chips dão 1024 pins por stack. Cada stack tem 16 GB de RAM HBM (Chips de 16 Gbit). A nível de bandwidth total por stack, dá 409,6 GB/s (3,2 X 1024 / 8). A SK Hynix acabou de anunciar o mesmo, mas com 3,6 Gbits por pin, o que dá 460,6 GB/s.

Basta 1 chip HBM2E para se ter uma bandwidth tremenda e 16 GB totais dá para muitos dispositivos. A SK Hynix também anunciou que teria 30% menos de área e 50% menos de TDP.

Penso que é por aqui que passa o decréscimo do custo por usar HBM. Menos área, maior tamanho, mais bandwidth por stack, poderá fazer com o que o custo dos chips baixe e se possam usar menos stacks nos produtos.

A mim parece-me que HBM continuará a ser um nicho, mas parece-me que se está a fazer o caminha para uma futura democratização. É por aí que vejo a importância do HBM2E. :)
 
Ou como não tens de ter duas linhas de produção... fica igual :P
E tens a vantagem de quando a velocidade subir, sempre podes ir buscar DIMMs ao mercado refurbished de servidores :)

As linhas de produção, sim, talvez ajude nos custos. :)

Quanto ao mercado de servidores, só para aí uns 10% do mercado servidor, se tanto, usa Unbuffered ECC. É aquele mercado dos Xeons E3 ou lá como se chamam agora. Mesmo nesse mercado, muitas vezes usa-se, Unbuffered Non-ECC, o mesmo dos DIMMs Consumidor.
A maior parte do resto do mercado de servidores usa Registered ECC (RDIMMs) e algum Load Reduced ECC (LRDIMMs), que não vais puder usar em Motherboards consumidor. :)
 
Estás a fazer as contas com que Bandwidth por pin e com quantos chips por stack?

acho que foi esta que vi ..
https://www.tomshardware.com/news/hbm2-standard-update-jedec,38264.html

A nível de produtos anunciados, a Samsung está a produzir Stacks com 8 chips a 3,2 Gbits por pin. 8 chips dão 1024 pins por stack. Cada stack tem 16 GB de RAM HBM (Chips de 16 Gbit). A nível de bandwidth total por stack, dá 409,6 GB/s (3,2 X 1024 / 8). A SK Hynix acabou de anunciar o mesmo, mas com 3,6 Gbits por pin, o que dá 460,6 GB/s.

Mas lá está,.. mesmo a 400GB a 460GB/s não é nada de extraordinario para tendo 16GB. É o mesmo que uma 2070 Super com 8GB .. Se fosse poder ter essa largura de banda com apenas 8GB e de forna economica, isso éra interessante..
GRaficas para fazer sentido os 16GB precisam tambem de muito mais largura de banda..

Para ter mais largura de banda é precico meter 2 stacks ( 32GB) ..
Nesse sentido a GDDR conttinua a dar uma melhor relação de largura de banda / GB ..
 

Pela Wikipedia, esses foram os números anunciados pela JEDEC em 2018

Do artigo do Toms:
JEDEC has also increased the memory bandwidth to 307 GB/s, which is delivered across a 1,024-bit memory interface that's separated into eight independent channels on each stack.

Fazendo as contas, isto dá 2,4 Gbits por pin ( 307 X 8 / 1024 ).
Entretanto, nos produtos reais que estão a ser fabricados, a Samsung anuncia 3,2 Gbit por pin e a SK Hynix, 3,6 Gbit por pin, o que faz aumentar em muito o valor da bandwidth total. :)

Mas lá está,.. mesmo a 400GB a 460GB/s não é nada de extraordinario para tendo 16GB. É o mesmo que uma 2070 Super com 8GB .. Se fosse poder ter essa largura de banda com apenas 8GB e de forna economica, isso éra interessante..
GRaficas para fazer sentido os 16GB precisam tambem de muito mais largura de banda..

Estás a dar uma imagem parcial.

1 chip HBM2E permite-te isto:
mqP7Uff.png


Isto é um Intel KabyLake-R com uma Radeon a usar 1 stack HBM2. Quando foi lançado em 2017, tinha 4 GB com 1 stack HBM2 com o total de bandwidth de 205 GB/s.
Algo igual lançado nos dias de hoje poderia ter 16 GB de VRAM com o dobro ou mais de Bandwidth.
Imagina um APU com um GPU integrado Médio/Grande (tipo os das novas consolas), com 1 stack HBM2E. Isto não é significativo? :)
Eu não disse que HBM2E é a resposta definitiva, mas é um bom passo. A parte económica pode ainda não estar lá, mas...... :)

Uma 2070 usa 8 chips para uma bandwidth total de 450 GB/s. A nível de espaço físico ficas com isto:
VblPel5.jpg


Por mera curiosidade. 8 Stacks HBM2E com 410 GB/s por stack, daria uma bandwidth total de 3,28 TB/s num espaço bem mais pequeno. Sim o preço seria enorme. :)

Para ter mais largura de banda é precico meter 2 stacks ( 32GB) ..
Nesse sentido a GDDR conttinua a dar uma melhor relação de largura de banda / GB ..

Não. Tens duas hipóteses para teres 8 GB em HBM2E:
  1. Stacks de 4 chips de 16 Gbit ( 4 X 16 Gbit ).
  2. Stacks de 8 chips de 8 Gbit ( 8 X 8 Gbit ).
Apenas isto.
 
Última edição:
Estás a dar uma imagem parcial.

1 chip HBM2E permite-te isto:
mqP7Uff.png


Isto é um Intel KabyLake-R com uma Radeon a usar 1 stack HBM2. Quando foi lançado em 2017, tinha 4 GB com 1 stack HBM2 com o total de bandwidth de 205 GB/s.
Algo igual lançado nos dias de hoje poderia ter 16 GB de VRAM com o dobro ou mais de Bandwidth.
Imagina um APU com um GPU integrado Médio/Grande (tipo os das novas consolas), com 1 stack HBM2E. Isto não é significativo? :)
Eu não disse que HBM2E é a resposta definitiva, mas é um bom passo. A parte económica pode ainda não estar lá, mas...... :)

Mas toda a questão é mesmo essa, preço.. Eh pá , é bonito de ver, e é isso..Vais pagar + 50% para "ficar bonito" ?
É que mesmo em portateis , não ganhas assim grande coisa com esse espaço livre extra .. Só se for para encher de bateria, mas o limite é 100Wh , e nem toda a gente precisa de tanta bateria ( ou vai pagar para ter tanta) ..

Num destop então ainda menos sentido.. A placa fica com metade do tamanho, ok. Mas faço o que com isso ?
Só se por para meter uma x080 Ti numa caixa mini ITX , e mesmo assim.. Acabas por não reduzir o tamanho em muito porque precisas de volume de dissipador calor na mesma..


Por mera curiosidade. 8 Stacks HBM2E com 410 GB/s por stack, daria uma bandwidth total de 3,28 TB/s num espaço bem mais pequeno. Sim o preço seria enorme. :)

Não. Tens duas hipóteses para teres 8 GB em HBM2E:
  1. Stacks de 4 chips de 16 Gbit ( 4 X 16 Gbit ).
  2. Stacks de 8 chips de 8 Gbit ( 8 X 8 Gbit ).
Apenas isto.

"Meanwhile their capacity is doubling, from 8 Gb/layer to 16 Gb/layer"
https://www.anandtech.com/show/14733/sk-hynix-announces-36-gbps-hbm2e-memory-for-2020

Minimo de 16Gbit por layer. Estar a fazer stacks com 1 layer é sequer viavel economeicamente?
Se o custo/GB de stacks de 8 layers já é o que é, o custo de stacks uni-layer deve ser horrivel..

A HMB só vai fazer competição, quando competir no preço e tiver boa performance com pouco tamanho (GB) .
A redução de tamanho de board grafica nos desktops é irrelevante, e nos portateis bastante reduzida..
 
Mas toda a questão é mesmo essa, preço..

Claro. Desde o inicio que digo que HBM2E não é para já a solução para democratizar HBM. É um passo nesse sentido, com maior densidade, melhor performance, etc.
Actualmente, o problema é preço. Não discordo disso.

Eh pá , é bonito de ver, e é isso..Vais pagar + 50% para "ficar bonito" ?
É que mesmo em portateis , não ganhas assim grande coisa com esse espaço livre extra .. Só se for para encher de bateria, mas o limite é 100Wh , e nem toda a gente precisa de tanta bateria ( ou vai pagar para ter tanta) ..

Num destop então ainda menos sentido.. A placa fica com metade do tamanho, ok. Mas faço o que com isso ?
Só se por para meter uma x080 Ti numa caixa mini ITX , e mesmo assim.. Acabas por não reduzir o tamanho em muito porque precisas de volume de dissipador calor na mesma..

Quando falas em portáteis, esqueceste-te que a grande vantagem na diminuição física dos componentes é a criação de novos e mais pequenos formatos. Compara um portátil actual com um com 15 anos. Nos últimos tempos até têm aparecido portáteis entre 6 a 9 polegadas e alguns até para Gaming (dentro de certas limitações).


Desktops também é mais ou menos simples. No teu computador tens SRAM L1 ou L2 na board? Tens a FPU num chip metido num socket? Tens uma Northbridge na motherboard? Tens uma placa de som dedicada? Tens uma placa de rede dedicada?
Há mais exemplos, mas tudo isso já foi externo ao Processador ou Board e tudo isso ou foi integrado no CPU ou na Board em 100% dos computadores consumidor ou perto disso.

Ter L1 e L2 na motherboard já foi muito caro e opcional. Já houve processadores num Slot para ter a L2 de forma externa e numa velocidade reduzida, por questões económicas. Ter a FPU num socket na Motherboard já foi muito caro e opcional.

Tudo o que é integração no processador ou motherboard leva a, num certo prazo, a ter-se melhor performance e custos menores.
Esquece o ser bonito ou ter computadores mais pequenos, em Desktops. Isso são apenas consequências boas, mas mais secundárias.

Vai chegar a altura em que todos os GPUs estarão integrados no Processador. A única duvida é quanto tempo isso vai demorar a acontecer.

"Meanwhile their capacity is doubling, from 8 Gb/layer to 16 Gb/layer"
https://www.anandtech.com/show/14733/sk-hynix-announces-36-gbps-hbm2e-memory-for-2020

Não vejo aí dizerem que o mínimo são 16 Gbit por chip. Não sei se estarão a produzir chips HBM2E de 8 Gbit, mas não vejo dizerem aí que é uma impossibilidade.
Mas dou de barato que actualmente até podem ser só produzidos chips de 16 Gbit. :)

Minimo de 16Gbit por layer. Estar a fazer stacks com 1 layer é sequer viavel economeicamente?
Se o custo/GB de stacks de 8 layers já é o que é, o custo de stacks uni-layer deve ser horrivel..

Stacks de 1 Layer? Não estou a perceber. Uma stack com 1 layer (1 chip de 16 Gigabits), teria 2 Gigabytes de espaço total.
Não estás a confundir Gbit com Gbytes? 1 GB = 1 Gigabyte e 1GB = 8 Gigabits. Os chips que estão a ser usados em HBM2E (ou layers) são de 16 Gigabits que é igual 2 Gigabytes. 1 stack HBM2E com 8 chips (ou layers) de 16 Gigabits tem 16 Gigabytes.
Para ter uma stack com 8 Gigabytes, poderia-se ter 8 chips (ou layers) de 8 Gigabits, se estiverem a ser produzidos e não sei se estão, ou podem ter apenas 4 chips (ou layers) de 16 Gigabits, que estão a ser produzidos. 16 Gigabits X 4 = 8 Gigabytes.

Os chips (ou layers) em HBM estão numa stack vertical, unidos por TSVs. As Stacks em HBM2E podem ir até 12 chips (ou layers), apesar de nos anúncios da Samsung e SK Hynix não passarem de 8.
Aliás, deve ser neste ponto, no packaging dos chips de forma vertical, com TSVs, que deve estar grande parte do custo.

A HMB só vai fazer competição, quando competir no preço e tiver boa performance com pouco tamanho (GB) .

Concordo apenas na questão do preço. :) A questão do tamanho é flexível com o tamanho dos chips e numero de chips na Stack. O tamanho dos chips e o seu numero também fará variar o preço.

A redução de tamanho de board grafica nos desktops é irrelevante, e nos portateis bastante reduzida..

A redução de tamanho tem sido fundamental no mercado de portáteis e no mercado mobile no geral.

Em desktops é "apenas" uma consequência boa, mas secundária. As principais vantagens estarão a nível de performance e preço.
 
Última edição:
Quando falas em portáteis, esqueceste-te que a grande vantagem na diminuição física dos componentes é a criação de novos e mais pequenos formatos. Compara um portátil actual com um com 15 anos. Nos últimos tempos até têm aparecido portáteis entre 6 a 9 polegadas e alguns até para Gaming (dentro de certas limitações).

Isso são casos de nicho..
Quanto a redução generalidada de volume.. Espessura não consegues reduzir mais sem comprometer arrefecimento. Vais fazer o que com o espaço que ganhas da grafica ? Num 15" ou 17" , vais meter simplesmente mais bateria a ocupar o espaço ?


Desktops também é mais ou menos simples. No teu computador tens SRAM L1 ou L2 na board? Tens a FPU num chip metido num socket? Tens uma Northbridge na motherboard? Tens uma placa de som dedicada? Tens uma placa de rede dedicada?
Há mais exemplos, mas tudo isso já foi externo ao Processador ou Board e tudo isso ou foi integrado no CPU ou na Board em 100% dos computadores consumidor ou perto disso.

Porque tinhas vantagem de performance/custo..
Não digo que não acontece daqui a 5 anos, mas como disse, é quando competir na performance/custo. Não pela redução de area..


Stacks de 1 Layer? Não estou a perceber. Uma stack com 1 layer (1 chip de 16 Gigabits), teria 2 Gigabytes de espaço total.
Não estás a confundir Gbit com Gbytes? 1 GB = 1 Gigabyte e 1GB = 8 Gigabits. Os chips que estão a ser usados em HBM2E (ou layers) são de 16 Gigabits que é igual 2 Gigabytes. 1 stack HBM2E com 8 chips (ou layers) de 16 Gigabits tem 16 Gigabytes.
Para ter uma stack com 8 Gigabytes, poderia-se ter 8 chips (ou layers) de 8 Gigabits, se estiverem a ser produzidos e não sei se estão, ou podem ter apenas 4 chips (ou layers) de 16 Gigabits, que estão a ser produzidos. 16 Gigabits X 4 = 8 Gigabytes.

A HMB só vai fazer competição, quando competir no preço e tiver boa performance com pouco tamanho (GB) .


Não estas a perceber, eu estou a falar para ter mais banthwith:
Teres 4 stacks de 16Gbit ( 2 GB) cada com 400GB/s , para teres no fim 8GB com 1600GB/s de bandwith
Ou vá, 2 stacks com 2 layers de 16Gbit ( 4GB / stack) , para teres 8GB com 800GB/s de bandwith

Teres 8GB num só stack continuas limitado em bandwith , e o custo as tantas não fica muito diferente de 1 stack de 16GB ..
1 stak de 16GB ficará bem mais baratao que 2 de 8GB .. e 1 de 16GB já é caro.

A redução de tamanho tem sido fundamental no mercado de portáteis e no mercado mobile no geral.

As limitaçoes de redução de tamanho dos portateis actuais está noutras areas, não na area ocupada pela grafica..
 
Isso são casos de nicho..
Quanto a redução generalidada de volume.. Espessura não consegues reduzir mais sem comprometer arrefecimento. Vais fazer o que com o espaço que ganhas da grafica ? Num 15" ou 17" , vais meter simplesmente mais bateria a ocupar o espaço ?

MOBILE:

Na verdade isto tem permitido sim, portáteis de 15" ou 17" ou menores muito mais finos e leves, o que sobra para baterias pois portáteis mais fino obrigam que essas sejam maiores de área mas mais finas.

Outra apesar de "comprometer arrefecimento" não, pois também sobrará mais espaço para cooler ;)

Por isso temos cada vez mais telemóveis camera entre outros mais potentes com tamanhos muito reduzidos.

DECTOP'S:

Quanto ao mundo de PC's como já cido dito aqui, esta diminuição permitir deixamos de precisar daquelas placas expansíveis (REDE SOM USB e muitos outros), termos também armazenamento M2 na própria board, menos cabos mais arrumado! mais compacto! Southbridge desapareceu e northbridge vai pelo caminho... sobrando espaço para o tais M2 e outros.

Se um dia os CPU tiver uma gráfica ainda mais potentes com memoria embutida dedicada a ela, claro será mais caro, mas a ideia de montar um pc mini itx com essa capacidade muito maior de GPU eu pagava!

Por exemplo, um CPU tivesse uma GPU com Memoria dedicada a ele, mas com performance de uma GPU "básica" 1660 eu pagaria por isso! como eu existe muitos outros que o fariam, em especial de junto o mesmo gastar menos energia;)

E acredita um dia será mais influente. Hoje em dia para ter 10TB ou mais de armazenamento basta só um HDD, antigamente na empresa andava com HDD de 160GB, isso para irmos para mais barato! Pois já temos M2 de 22x80mm com mais TB até. Apenas mais um exemplo.


SERVIDORES E EMPRESAS:

No mercado nos servidores isso esta acontecer, prova é isso diminui imenso os custos... espaço também tem custos, obriga a grandes áreas m2 e maiores custos quer de manutenção, imposto IMI, electricidade etc...

E também para empresas pequenas trais vantagens, terem escritórios mais pequenos ora mais baratos as rendas etc...


RESUMO:

E na verdade quem está a fazer esta procura pela diminuição é o mercado MOBILE e SERVIDORES mas que já se vê cada vez mais ser adoptado em PC de consumidores... Dizer que não interessa é ignorar o que já vivemos e o que para o qual nos encaminhamos.

HAja mais avanços e sim cada vez mais reduzidas, só encontro + vantagens do que desvantagens!
 
Mas vai ser tudo ECC agora :D

Mais ou menos. O Ryan Smith que escreveu o artigo, nos comentários, fala sobre as diferenças entre ter "on die ECC" em DDR5 e "ECC DIMM Wide", mas fico com algumas dúvidas com o post dele. Coloco aqui os 2 posts dele sobre o assunto:

So on-die ECC is a bit of a mixed-blessing. To answer the big question in the gallery, on-die ECC is not a replacement for DIMM-wide ECC.

On-die ECC is to improve the reliability of individual chips. Between the number of bits per chip getting quite high, and newer nodes getting successively harder to develop, the odds of a single-bit error is getting uncomfortably high. So on-die ECC is meant to counter that, by transparently dealing with single-bit errors.

It's similar in concept to error correction on SSDs (NAND): the error rate is high enough that a modern TLC SSD without error correction would be unusable without it. Otherwise if your chips had to be perfect, these ultra-fine processes would never yield well enough to be usable.

Consequently, DIMM-wide ECC will still be a thing. Which is why in the JEDEC diagram it shows an LRDIMM with 20 memory packages. That's 10 chips (2 ranks) per channel, with 5 chips per rank. The 5th chip is to provide ECC. Since the channel is narrower, you now need an extra memory chip for every 4 chips rather than every 8 like DDR4.

And to quote SK Hynix

"On-die error correction code (ECC)3 and error check and scrub (ECS), which were first to be adopted in DDR5, also allow for more reliable technology node scaling by correcting single bit errors internally. Therefore, it is expected to contribute to further cost reduction in the future. ECS records the DRAM defects and provides the error counts to the host, thereby increasing transparency and enhancing the reliability, availability, and serviceability (RAS) function of the server system."

Ele diz que "On die ECC" não é substituto de ECC num DIMM e que serve para "melhorar" funcionamento devido a que, com a diminuição nos processos de fabrico, os "single bit errors" aumentam.
Um DIMM com ECC, actualmente, tem mais 1 chip por cada 8 chips num Rank e o que me parece é que acontece em DDR5 é que cada die tem espaço para calcular ECC(???).

A parte que me deixa confuso é que ele diz que "On die ECC" serve para corrigir de forma transparente "single bit errors", mas a memória ECC actual é exactamente o que faz. Detecta,corrige de forma transparente e avisa "single bit errors". Também detecta, avisa, mas não corrige "dual bit errors".
No post seguinte fala em ECS que comunica ao Host os error counts. A forma de funcionar pode ser diferente, mas a memória ECC actual também faz isso.

Não percebo exactamente onde está a diferença. Por ser "On die ECC" só corrigirá erros ECC ocorridos na mesma die?

Seja como for, dois pontos, os DIMMs serão diferentes entre ter "ECC DIMM wide" e não ter. Mesmo assim é o caminho certo. Há muitos anos que acho que toda a memória RAM deveria ser ECC.

Em relação a ECC a nível de DIMM, com 2 Ranks de 4 chips, serão precisos mais 2 chips para se ter ECC a nível do DIMM. 10 chips no total, ao contrário de 9 (1 Rank de 8 chips + 1) actualmente. Isto também vai encarecer os DIMMs com "ECC DIMM Wide".
 
Back
Topo