<div dir="ltr">I find it mind boggling that they have that much hardware, but were too lazy to spend time properly configuring/monitoring ZFS until it was too late.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jan 29, 2022 at 9:12 PM Chris Frey <<a href="mailto:cdfrey@foursquare.net">cdfrey@foursquare.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Sat, Jan 29, 2022 at 08:36:43PM -0500, Mikalai Birukou via kwlug-disc wrote:<br>
> <a href="https://www.youtube.com/watch?v=Npu7jkJk5nM" rel="noreferrer" target="_blank">https://www.youtube.com/watch?v=Npu7jkJk5nM</a><br>
<br>
I don't think that has much to do with ZFS :-)<br>
<br>
I was slightly puzzled at their first move to remove the drives that<br>
were still working but had errors.  With that many failed disks in the<br>
array, wouldn't it have been a better strategy to try to get everything<br>
into a good state before replacing entire drives?<br>
<br>
- Chris<br>
<br>
<br>
_______________________________________________<br>
kwlug-disc mailing list<br>
<a href="mailto:kwlug-disc@kwlug.org" target="_blank">kwlug-disc@kwlug.org</a><br>
<a href="https://kwlug.org/mailman/listinfo/kwlug-disc_kwlug.org" rel="noreferrer" target="_blank">https://kwlug.org/mailman/listinfo/kwlug-disc_kwlug.org</a><br>
</blockquote></div>