<div dir="ltr"><div>We have been using the Sammy 970 Pro 1TB for caching in servers being beaten about 18hr/6dy and have never had any failures. <br></div><div>I think we started on this model some 2yrs ago when they first came out<span class="gmail_default" style="font-family:tahoma,sans-serif">, prior to that we used the 960 Pro units. <br></span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif">All are NVMe.</span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif"><br></span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif">We *always* marry them to a decent heatsink. Heat kills, NVMe drives run hot when being beaten, heatsinks plus a chassis fan providing decent laminar airflow of the SSDs makes for greater reliability I think.<br></span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif"><br></span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif">Specs on SSD:</span></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif"></span></div><div><div style="font-family:tahoma,sans-serif" class="gmail_default"><a href="https://www.samsung.com/ca/memory-storage/nvme-ssd/970-pro-nvme-m-2-ssd-1tb-mz-v7p1t0bw/">https://www.samsung.com/ca/memory-storage/nvme-ssd/970-pro-nvme-m-2-ssd-1tb-mz-v7p1t0bw/</a></div></div><div><div style="font-family:tahoma,sans-serif" class="gmail_default">Not sure how the newer 980 Pro stack up as we are not transitioning away from the 970 Pro unit mid-2022.</div><br></div><div><div style="font-family:tahoma,sans-serif" class="gmail_default">Specs on Heatsink:</div><div style="font-family:tahoma,sans-serif" class="gmail_default"><a href="https://www.sabrent.com/product/SB-HTSK/m-2-2280-ssd-rocket-heatsink/">https://www.sabrent.com/product/SB-HTSK/m-2-2280-ssd-rocket-heatsink/</a></div></div><div><br></div><div><div style="font-family:tahoma,sans-serif" class="gmail_default">This really does not address your Q, but I thought I would toss out an anecdote out there.</div><div style="font-family:tahoma,sans-serif" class="gmail_default"></div><div style="font-family:tahoma,sans-serif" class="gmail_default">BTW, the nitty-gritty on the Micron 9300 Max can be found here:</div><div style="font-family:tahoma,sans-serif" class="gmail_default"><a href="https://media-www.micron.com/-/media/client/global/documents/products/product-flyer/9300_ssd_product_brief.pdf">https://media-www.micron.com/-/media/client/global/documents/products/product-flyer/9300_ssd_product_brief.pdf</a></div><div style="font-family:tahoma,sans-serif" class="gmail_default">Micron plays fast and loose about their TBW rating, sneaky buggers, "3-drive writes per day".<br></div></div><div><br></div><div><span class="gmail_default" style="font-family:tahoma,sans-serif">T</span>hanks,<br><br>Ron S.<br><br></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jul 31, 2021 at 4:27 PM Khalid Baheyeldin <<a href="mailto:kb@2bits.com">kb@2bits.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Short version: what is the longevity of NVME disks under heavy writes,<br>
e.g. for MySQL database?<br>
<br>
I am hoping that some hardware knowledgeable folk would clue me in on<br>
this hardware related issue.<br>
<br>
Basically, I had a client who got a new server over a year ago. The<br>
hosting company, a large US based host, recommended that we use an<br>
NVME disk for MySQL. This is a plain old physical server running<br>
Ubuntu Server 20.04 LTS (no VMs, no docker). It has 64GB RAM and 16<br>
cores. The root file system is two SSDs that are software RAIDed<br>
together. 1<br>
<br>
We had kernel patches accumulating over that year, and I wanted to do<br>
a reboot to make sure that everything started normally. Upon rebooting<br>
<br>
[  128.001364] nvme nvme0: Device not ready; aborting initialisation<br>
[  128.002041] nvme nvme0: Removing after probe failure status: -19<br>
<br>
That NVME was a 1.6TB Micron 9200 MAX, if that matters.<br>
<br>
There was no device file under /dev/ for that disk anymore.<br>
<br>
After the host replacing the NVME, everything was normal, as below:<br>
[    7.558183] nvme nvme0: Shutdown timeout set to 10 seconds<br>
[    7.562576] nvme nvme0: 32/0/0 default/read/poll queues<br>
[    7.565741]  nvme0n1: p1<br>
...<br>
Jul 31 15:27:54 live multipath: nvme0n1: failed to get udev uid:<br>
Invalid argument<br>
Jul 31 15:27:54 live multipath: nvme0n1: uid =<br>
eui.000000000000000100a0750128df8715 (sysfs)<br>
...<br>
[    6.008941] nvme nvme0: pci function 0000:b6:00.0<br>
<br>
[   11.571864] EXT4-fs (nvme0n1p1): mounted filesystem with ordered<br>
data mode. Opts: (null)<br>
<br>
Now to the questions:<br>
<br>
- Why would a device be functional before a reboot but totally go away<br>
after, and not being even detected by the operating system?<br>
- Are NVME as unreliable as SSDs or better? Or are they just faster?<br>
<br>
All thoughts appreciated ...<br>
--<br>
Khalid M. Baheyeldin<br>
<a href="http://2bits.com" rel="noreferrer" target="_blank">2bits.com</a>, Inc.<br>
Fast Reliable Drupal<br>
Drupal performance optimization, hosting and consulting.<br>
"Sooner or later, this combustible mixture of ignorance and power is<br>
going to blow up in our faces." -- Dr. Carl Sagan<br>
<br>
_______________________________________________<br>
kwlug-disc mailing list<br>
<a href="mailto:kwlug-disc@kwlug.org" target="_blank">kwlug-disc@kwlug.org</a><br>
<a href="https://kwlug.org/mailman/listinfo/kwlug-disc_kwlug.org" rel="noreferrer" target="_blank">https://kwlug.org/mailman/listinfo/kwlug-disc_kwlug.org</a><br>
</blockquote></div>