Drive Thread oficial de novidades e lançamentos SSD

A Samsung já tem no site o 980 Pro. Ele não usa MLC. Usa TLC.

Psp8c2u.jpg


Resumo da performance:
aQ8an2E.png


Specs:
  • PCI-Ex 4.0
  • 3-bit MLC = TLC
  • Controladora Samsung Elpis
  • 6th Gen V-NAND
  • 1 GB RAM Cache LPDDR4 em 1 TB e 512 MB em 250GB/500GB
  • Intelligent TurboWrite
  • Dynamic Thermal Guard
  • 5 anos garantia ou 600TB TBW no de 1TB, 300TBW no de 500GB e 150TBW no de 250GB
https://www.samsung.com/sg/memory-storage/980-pro-nvme-m2-ssd/MZ-V8P1T0BW/
https://www.notebookcheck.net/PC-vs...-000-MB-s-for-desktop-computers.490537.0.html
 
Sim, pelo menos por enquanto só existem SKUs de 250 GB, 500 GB e 1 TB. É um pouco estranho, visto que já existem M.2 com 4 TB usando TLC.
Dito isto, como é um Pro e usa TLC, é possível que ele tenha bastante mais NAND, como overprovisioning e SLC Cache, além dos 1 TB usáveis.
 
Comparado com 970 Pro de 1 TB, é de facto um valor bastante inferior, mas levanta a questão se esse valor é importante, "correcto" e significativo, mesmo estando-se a falar de um SSD topo de gama no mercado consumidor.
A quebra no valor é fácil de perceber. MLC está em vias de extinção e com a passagem de MLC no 970 Pro para TLC neste 980 Pro, aquele valor sofre um enorme corte.

Quanto ao valor em si, mesmo sendo um topo de gama, haverá muitos consumidores que precisem de mais de 600 TBW? Por exemplo, a versão 1 TB do 850 Pro, com MLC, tem um rating oficial de 300 TBW, mas ao mesmo tempo, tem uma garantia de 10 anos, se o valor de TB não for ultrapassado.
  • No 850 Pro, para se conseguir escrever 300 TB em 10 anos, é preciso escrever todos os dias, durante 10 anos, 84,16 GB.
  • No 970 Pro, Para se conseguir escrever 1200 TB em 5 anos (garantia de 5 anos) é preciso escrever todos os dias, durante 5 anos, 673,31 GB (Se fossem 10 anos, 336,66 GB por dia)
  • No 980 Pro, Para se conseguir escrever 600 TB em 5 anos (garantia de 5 anos) é preciso escrever todos os dias, durante 5 anos, 336,66 GB (Se fossem 10 anos, 168,33 GB por dia)
Mesmo no mercado profissional, isto não são números bem elevados.

A outra questão é se aquele valor é "correcto". O 840 Pro tinha um rating genérico de 73 TBW e na versão de 256 GB, fizeram a experiência de ver até onde ia, e ele só morreu depois de escritos 2,4 Petabytes:
yGwDb3n.gif


https://techreport.com/review/27909/the-ssd-endurance-experiment-theyre-all-dead/

É pena ver MLC desaparecer do mercado consumidor, mas a nível de redução da resistência da NAND, neste SSDs topo, vejam se o valor apresentado em TBW faz alguma diferença. Eu sou capaz de apostar que não.......
Se calhar é mais importante a perca de performance entre MLC e TLC, do que os valores de resistência da NAND.

Já agora, adoraria ver nos dias de hoje, um teste de resistência "real" da NAND, com SSDs actuais. :)
 
Eu o que acho mais importante é a questão do preço. Querem extinguir MLC? Certo, então que o preço acabe a reflectir esta questão. Claro que não vai reflectir... Eles vão querer comer os ganhos. Não é inesperado, mas não é confortável. Mas como não há alternativa...
 
Este 850 pro tem o mesmo endurance do Kingston A2000... So que deve vir ao dobro do preço. Claro que e bem mais rapido, mas GB\s não é tudo. E o consumo ja começa a ser algo expressivo. aquela vantagem dos SSDs gastarem menos que HDD está a desaparecer.

9W já sao ~2A nos 5V se fosse um SSD externo, ou seja só naquelas portas USC-C que tenham 25w ou algo assim.

Mas pronto 600TB em 5 anos e muita fruta para uso domestico e mesmo profissional sem ser coisas extremas.
 
Por acaso ando interessado num ssd que entupa o dmi 3.0, tipo 4+Gb/s leitura e escrita / 600+k iops, este 980 Pro podia vir mesmo a calhar, mas TLC nesta linha Pro não me agrada e parece um retrocesso.

Tenho um SM961 512Gb MLC nvme (da altura do 970 Pro) e com 11.7Tb escritos a saúde da drive está nos 100%, o endurance acredito ser os 600tbw.
Com o mesmo endurance mas 1Tb TLC, o 860 Evo com apenas 8.2Tb escritos já reporta 98% de vida.
Esses 100 vs 98% não me preocupam nem os estou a usar como um valor "end all", mas não deixam de ser curiosos.

Para alem do endurance, vai ser interessante comparar a velocidade sustentada do 980 Pro quando as caches se esgotarem vs o 970 Pro... na volta pode ser é uma boa altura para aproveitar uma promo num 970 Pro, 2 em raid0 seguramente entupiam o dmi 3.0. :D

O preço pode sempre ser adequado... :-D
 
DirectStorage is coming to PC

Earlier this year, Microsoft showed the world how the Xbox Series X, with its portfolio of technology innovations, will introduce a new era of no-compromise gameplay. Alongside the actual console announcements, we unveiled the Xbox Velocity Architecture, a key part of how the Xbox Series X will deliver next generation gaming experiences.

We’re excited to bring DirectStorage, an API in the DirectX family originally designed for the Velocity Architecture to Windows PCs! DirectStorage will bring best-in-class IO tech to both PC and console just as DirectX 12 Ultimate does with rendering tech. With a DirectStorage capable PC and a DirectStorage enabled game, you can look forward to vastly reduced load times and virtual worlds that are more expansive and detailed than ever.

In this blog post, we’re going to give gaming enthusiasts more details on how it’s going to work and how it will revolutionize PC gaming.



The evolution of storage technologies and game IO patterns
Recent advancements in SSD and PCIe technologies, specifically NVMe technologies, allow gaming PCs to have storage solutions that deliver far more bandwidth than was ever possible with older hard drive technologies. Instead of tens of megabytes per second, drives like the upcoming Xbox Series X console’s custom NVMe can deliver a blazing-fast multiple gigabytes per second.

Game workloads have also evolved. Modern games load in much more data than older ones and are smarter about how they load this data. These data loading optimizations are necessary for this larger amount of data to fit into shared memory/GPU accessible memory. Instead of loading large chunks at a time with very few IO requests, games now break assets like textures down into smaller pieces, only loading in the pieces that are needed for the current scene being rendered. This approach is much more memory efficient and can deliver better looking scenes, though it does generate many more IO requests.

Unfortunately, current storage APIs were not optimized for this high number of IO requests, preventing them from scaling up to these higher NVMe bandwidths creating bottlenecks that limit what games can do. Even with super-fast PC hardware and an NVMe drive, games using the existing APIs will be unable to fully saturate the IO pipeline leaving precious bandwidth on the table.

That’s where DirectStorage for PC comes in. This API is the response to an evolving storage and IO landscape in PC gaming. DirectStorage will be supported on certain systems with NVMe drives and work to bring your gaming experience to the next level. If your system doesn’t support DirectStorage, don’t fret; games will continue to work just as well as they always have.



What exactly will DirectStorage do for my PC gaming experience and how?
There are two primary areas this new API is going to improve: reducing frustratingly long load times of the past and enabling games to be more detailed and expansive than ever.

Although seemingly different, both benefits stem from the same IO system advancements that DirectStorage brings. Whether it’s the textures of your characters clothing, or the details of the mountains off in the distance, both fundamentally involve the loading of data from a storage device which needs to eventually get to the GPU. The former just happens while on a loading screen whereas the latter happens as you walk through an open world game that loads in the distant scenery coming into view in real time while dumping things that drop out of view.

In either case, previous gen games had an asset streaming budget on the order of 50MB/s which even at smaller 64k block sizes (ie. one texture tile) amounts to only hundreds of IO requests per second. With multi-gigabyte a second capable NVMe drives, to take advantage of the full bandwidth, this quickly explodes to tens of thousands of IO requests a second. Taking the Series X’s 2.4GB/s capable drive and the same 64k block sizes as an example, that amounts to >35,000 IO requests per second to saturate it.

Existing APIs require the application to manage and handle each of these requests one at a time first by submitting the request, waiting for it to complete, and then handling its completion. The overhead of each request is not very large and wasn’t a choke point for older games running on slower hard drives, but multiplied tens of thousands of times per second, IO overhead can quickly become too expensive preventing games from being able to take advantage of the increased NVMe drive bandwidths.

On top of that, many of these assets are compressed. In order to be used by the CPU or GPU, they must first be decompressed. A game can pull as much data off the disk as it wants, but you still need an efficient way to decompress and get it to the GPU for rendering. By using DirectStorage, your games are able to leverage the best current and upcoming decompression technologies.

In a world where a game knows it needs to load and decompress thousands of blocks for the next frame, the one-at-a-time model results in loss of efficiency at various points in the data block’s journey. The DirectStorage API is architected in a way that takes all this into account and maximizes performance throughout the entire pipeline from NVMe drive all the way to the GPU.

It does this in several ways: by reducing per-request NVMe overhead, enabling batched many-at-a-time parallel IO requests which can be efficiently fed to the GPU, and giving games finer grain control over when they get notified of IO request completion instead of having to react to every tiny IO completion.

In this way, developers are given an extremely efficient way to submit/handle many orders of magnitude more IO requests than ever before ultimately minimizing the time you wait to get in game, and bringing you larger, more detailed virtual worlds that load in as fast as your game character can move through it.


Why NVMe?
NVMe devices are not only extremely high bandwidth SSD based devices, but they also have hardware data access pipes called NVMe queues which are particularly suited to gaming workloads. To get data off the drive, an OS submits a request to the drive and data is delivered to the app via these queues. An NVMe device can have multiple queues and each queue can contain many requests at a time. This is a perfect match to the parallel and batched nature of modern gaming workloads. The DirectStorage programming model essentially gives developers direct control over that highly optimized hardware.

In addition, existing storage APIs also incur a lot of ‘extra steps’ between an application making an IO request and the request being fulfilled by the storage device, resulting in unnecessary request overhead. These extra steps can be things like data transformations needed during certain parts of normal IO operation. However, these steps aren’t required for every IO request on every NVMe drive on every gaming machine. With a supported NVMe drive and properly configured gaming machine, DirectStorage will be able to detect up front that these extra steps are not required and skip all the necessary checks/operations making every IO request cheaper to fulfill.

For these reasons, NVMe is the storage technology of choice for DirectStorage and high-performance next generation gaming IO.



When can we expect more details?
For every DirectX family feature, Microsoft brings together the best of the PC gaming industry players to standardize new gaming features, make them available to game developers, and eventually get them into your gaming machines.

This process has already begun for DirectStorage and we’re working with our industry partners right now to finish designing/building the API and its supporting components. We’re targeting getting a development preview of DirectStorage into the hands of game developers next year.

Ainda vamos ter de esperar um bocado...
 
Jogos que chegam a ocupar centenas de gigas, acho que devem estar muito mal optimizados... pelo menos que ajude a baixar o preço por GB dos dispositivos! Sem comprometer demasiado a qualidade/durabilidade dos dispositivos ( QLC > PentaLC ? > BitriLC :)
 
@blaster_00

Sou um bocado ignorante na matéria, mas intuitivamente parece-me que para isso interessa mais capacidade do que durabilidade, visto que durabilidade é em número de escritas, e nesses jogos deverão ser escritos vários GB poucas vezes para serem lidos muitas vezes.

Tenho um Crucial MX300 de 525GB (TLC), aquilo vai com ~97% de tempo de vida restante segundo o firmware, ou seja, ao mesmo ritmo de utilização haveria de durar ~100 anos.
 
Última edição:
@blaster_00

Sou um bocado ignorante na matéria, mas intuitivamente parece-me que para isso interessa mais capacidade do que durabilidade, visto que durabilidade é em número de escritas, e nesses jogos deverão ser escritos vários GB poucas vezes para serem lidos muitas vezes.

Tenho um Crucial MX300 de 525GB (TLC), aquilo vai com ~97% de tempo de vida restante segundo o firmware, ou seja, ao mesmo ritmo de utilização haveria de durar ~100 anos.

A "durabilidade" sim refere à escrita.

Hum tenho um único ssd 2.5 Crucial MX300 de 1tb mas meti externamente e tb com 97% mas atenção que abaixo dos 90% não vou confiar mais dele. isto porquê?? os restantes ssd de 2.5 que tenho, são da samsung, de varias versões e tamanhos, e só um está a 99% um de 500gb 950evo, o resto tudo a 100%, alguns tem vários anos... ainda tenho recentemente dois WD BLACK SN750 NVM cada de 1TB e claro a 100% mas esses são novos, aproveitei em promoção.

mas tudo para dizer que a menos de 90% não vou confiar mais! por isso o tempo útil não conto depois dos 90%!

mas o Crucial em menos de um mês ficou nos 97%! :004: já comecei olhar de lado para ele hahaha pois tenho outro samsung de 1tb também que faz de backup em conjunto com o da Crucial, NÃO ARRISCO PERDER TRABALHOS DE CLIENTES :n1qshok: e o da samsung a 100% CLARO SE, E APENAS SE OS DADOS ESTÃO CORRECTOS :rrotflm:
 
Qualquer disco, mesmo mecanico pode perder os dados.

Mas porque raio teriam um SSD para cold storage de backups e depois nao usam? eu pelo menos tento fazer um backup 1x por semana.
 
A "durabilidade" sim refere à escrita.

Hum tenho um único ssd 2.5 Crucial MX300 de 1tb mas meti externamente e tb com 97% mas atenção que abaixo dos 90% não vou confiar mais dele. isto porquê?? os restantes ssd de 2.5 que tenho, são da samsung, de varias versões e tamanhos, e só um está a 99% um de 500gb 950evo, o resto tudo a 100%, alguns tem vários anos... ainda tenho recentemente dois WD BLACK SN750 NVM cada de 1TB e claro a 100% mas esses são novos, aproveitei em promoção.

mas tudo para dizer que a menos de 90% não vou confiar mais! por isso o tempo útil não conto depois dos 90%!

mas o Crucial em menos de um mês ficou nos 97%! :004: já comecei olhar de lado para ele hahaha pois tenho outro samsung de 1tb também que faz de backup em conjunto com o da Crucial, NÃO ARRISCO PERDER TRABALHOS DE CLIENTES :n1qshok: e o da samsung a 100% CLARO SE, E APENAS SE OS DADOS ESTÃO CORRECTOS :rrotflm:

Ele pode avariar com 100% de uso restante e funcionar com 0%, tu sabes como isso é medido? Não torna o Crucial menos fiável do que o Samsung. Se tens conteúdos importantes seja o disco novo ou não, convém sempre ter backups.
 
mas tudo para dizer que a menos de 90% não vou confiar mais! por isso o tempo útil não conto depois dos 90%!

Estás a falar a sério ou é piada?

Eu vou dar dois exemplos:
  • Não interessa para o caso qual é a função deles, mas conheço um caso onde se tem 16 Samsung 850 Pro de 512 GB, numa storage e esses 16 SSDs estão entre 64% e 50% de Wearout. O que está a 50% tem 89,4 TB escritos e o que está a 64%, tem 73,5 TB escritos. Dos 16 850 Pro, todos eles têm 0 reallocated sectors e 0 used reserved blocks e funcionam lindamente, até porque são feitos checksums aos dados que eles têm e até hoje, deram 0 erros de checksum. Ao lado, existem mais 8 850 Pro de 256 GB, mas esses têm menos uso e só andam entre o 7 e 10% de Wearout. Também são feitos checksums regularmente e 0 erros até hoje.

  • O outro exemplo é o teste que o Techreport fez, de durabilidade. Coloco aqui este gráfico do 840 Pro:
    OtlSPLN.png


    Este 840 Pro chegou a 0% de Wearout +/- aos 500 TB escritos, começou a usar blocos de reserva +/- aos 750 TB escritos (Depois de já estar a 0% de Wearout), foi usando cada vez mais e falhou depois de ter escrito 2,4 PB.
Um SSD pode falhar a 100% de Wearout, por outros motivos que não a resistência da NAND, como pode funcionar muito depois de estar a 0% de Wearout
Eu tive um Intel 525 de 180 GB que avariou em menos de 1 semana da compra e o que veio de RMA, ao fim destes anos, ainda funciona lindamente.

Eu deixo aqui 3 conselhos:
  1. Não se sigam apenas por um valor da SMART, especialmente em SSDs.
  2. Instalem e usem um programa que monitorize a SMART e envie alertas.
  3. Façam Backups com frequência e com alguma frequência, testem se eles são válidos!!!!
Atirar para o lixo um SSD com 90% de Wearout, só por causa deste valor, não faz sentido.
 
Última edição:
Back
Topo