WD推出了一款Skyhawk SSD、收购SanDisk SATA接口CloudSpeed SSD的NVMe版本,与它自己的后SanDisk和后HGST Skyhawk品牌并驾齐驱。
Skyhawk是一款中低端的高速SSD,2.5英寸,采用MLC(2bits/cell)NAND而不是速度较慢的、不那么耐用的TLC(3bits/cell),以及NVMe/PCIe接口,而不是旧的基于磁盘的SATA接口。
Skyhawk SSD采用15nm NAND,配置PCIe Gen3控制器,容量点从1.6TB到3.84TB,采用热插拔的、U2、2.5英寸规格,两种版本,标准版本针对读优化的工作负载,Ultra版本针对混合使用的工作负载,有更长的耐用性,通过降低容量使得现有单元损耗的时候可以使用备用单元。
WD表示,Skyhawk提供了:
- 连续性能是同类企业级SATA SSD的近3倍
- 相比25W PCIe SSD,更低的12W功耗能够实现更广泛的部署
- 遵循行业标准NVMe 1.2协议,内装针对所有主流操作系统的驱动程序
- 提供2个写耐用泳道(标准和Ultra)
- 提高的性能改进了服务器整合
WD收购HGST和SanDisk获得了他们的SSD品牌,例如HGST的FlashMax和Ultrastar SN100,以及SanDisk的CloudSpeed和IoScale。我们在这里看到了第二个WD SSD品牌类型,黑盘、蓝盘和绿盘;黑盘已经在1月的CES上展示了。
我们可以把SkyHawk 看作是重新设计的SanDisk CloudSpeed SATA SSD。例如,2015年8月推出的CloudSpeed Ultra Gen II SSD采用15nm MLC NAND,与SkyHawk一样,是2.5英寸的,有400GB、800GB和1.6TB几个容量点,性能为:
- 76,000随机读IOPS
- 32,000随机写IOPS
- 530MB/sec连续读
- 460MB/sec连续写
- 80μs, 56μs平均r/w延迟
- 1.8 DWPD(驱动器每日写入)为5年
Skyhawk在某些方面更好(例如速度),但在其他方面(延迟、耐用性)一般。标准版有1.92TB和3.84TB两个容量点,性能数据如下:
- 250,000随机读IOPS
- 47,000随机写IOPS
- 1.5GB/sec连续读
- 1.17B/sec连续写
- 在1.92TB/3.84TB的容量水平上,读延迟为127/128μs,写延迟为1,331/718μs
- 0.5/0.6 DWPD为5年
Ultra版本有1.96TB和3.2TB两个容量点,性能数据如下:
- 250,000随机读IOPS
- 83,000随机写IOPS
- 1.7GB/sec连续读
- 1.2GB/sec连续写
- 在1.6TB/3.2TB容量水平上,读延迟为126/125μs,写延迟为693/351μs
- 1.2/1.7 DWPD为5年
随机IOPS和连续带宽方面有所增加。但令人好奇的是,这里的NVMe/PCIe接口延迟比旧的SATA接口还要高。
WD在新闻稿中写到,Skyhawk“为数据中心带来了企业级的可靠性,出色的耐用性和卓越的性能,针对数据分析处理(OLAP)、数据库、财务和电子商务系统、云虚拟化、媒体流、视频点播等。”
我们猜测即将推出的WD SSD将针对其他细分市场,采用其他更强大的、掠食性的鸟类、哺乳动物或者鱼类的名字。
Skyhawk有200万小时的MTBF评级、即时安全擦除和0.44%的年故障率。
Skyhawk SSD目前已经为选定的OEM提供了样品,预计全面供货在今年第二季度,目前我们没有得到定价信息。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。