云存储服务商Backblaze发现,其硬盘驱动器故障率在2025年第二季度有所下降,此前高故障率的驱动器故障频率明显减少。
该公司硬盘统计团队(Stephanie Doyle和Pat Patterson)表示,12TB希捷型号ST12000NM0007"上季度故障率高达9.47%,本季度降至仅3.58%"。该型号在2024年最后一个季度的故障率为9.72%。"其他显著下降的包括12TB HGST型号HUH721212ALN604(第一季度:4.97%;第二季度:3.39%)和14TB希捷型号ST14000NM0138(第一季度:6.82%,第二季度:4.37%)。"
两款希捷驱动器ST8000NM000A(8TB)和ST16000NM002J(16TB)在本季度零故障,其中8TB驱动器已连续三个季度零故障。
硬盘驱动器的终身故障率与上季度的1.31%整体故障率相比变化不大。
随着Backblaze采购更新更大容量的驱动器,其硬盘存储中的小容量驱动器正在老化。该公司拥有10款12TB或更低容量的硬盘产品,平均故障率为1.42%。公司指出:"这个年化故障率得益于一些表现良好的低故障率产品,包括两款4TB希捷型号(0.57%和0.40%)、12TB HGST型号HUH721212ALE600(0.56%)和12TB希捷型号ST12000NM001G(0.99%)。"
在容量规模的另一端,该公司拥有三款20TB或更大容量的drives:20TB东芝型号MG10ACA20TE、22TB西数型号WUH722222ALE6L4和24TB希捷型号ST24000NM002H。
公司指出,"无论从驱动器数量还是在存储池中的时间长度来看,现在为希捷和东芝型号创建明确趋势还为时过早……特别是希捷可能处于'浴缸'曲线的开始阶段,我们可能会看到它随时间变化。
另一方面,22TB西数型号的表现远低于我们当前所有尺寸和年龄驱动器池的平均年化故障率,而且它是拥有最多数据的型号。"
随后,该公司将20TB+驱动器随时间的整体故障率与14-16TB驱动器在相同时间段的故障率进行了比较。
存在显著差异,Backblaze表示:"从驱动器年龄对比来看,我们的20TB驱动器似乎正好达到目标,甚至可能比预期表现更好。但这绝对不是完美的比较,因为14-16TB驱动器拥有更稳定和更大的驱动器数量。"
结论是:"从数据中可以清楚看出,我们需要给20TB+驱动器时间成熟,随着我们(当然取决于我们的采购行为)增加更多驱动器,我们可能会在数据中看到一些有趣的变化。"
您可以访问Backblaze的硬盘统计页面查看完整的故障率数据。
评论:考虑到硬盘驱动器的复杂性、机械精密度、微小公差和24×7的活动频率,故障率如此之低确实令人惊叹。它们可能是有史以来大规模生产的最精密的高精度机电设备之一。
Q&A
Q1:Backblaze硬盘故障率在2025年第二季度有什么变化?
A:Backblaze发现其硬盘驱动器故障率在2025年第二季度有所下降。例如,12TB希捷型号ST12000NM0007从上季度的9.47%故障率降至3.58%,其他型号如12TB HGST和14TB希捷也都有显著下降。
Q2:20TB级大容量硬盘表现如何?
A:20TB级驱动器表现良好,特别是22TB西数型号表现远低于平均年化故障率。虽然样本数据还需要更多时间成熟,但从年龄对比来看,20TB驱动器正好达到目标,甚至可能比预期表现更好。
Q3:哪些硬盘型号在本季度实现了零故障?
A:两款希捷驱动器实现了零故障:ST8000NM000A(8TB)和ST16000NM002J(16TB)。其中8TB驱动器已经连续三个季度保持零故障记录,表现尤为突出。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。