希捷宣布其28TB和30TB Exos M数据中心硬盘和IronWolf Pro NAS硬盘在全球渠道正式发售,这两款产品均采用HAMR技术的传统记录方式。
HAMR(热辅助磁记录)技术使用激光临时加热高矫顽力位区域,降低其磁状态变化阻力,然后通过冷却实现比此前室温工作的垂直磁记录(PMR)技术更高的面密度。HAMR硬盘可以采用叠瓦式(部分重叠)写入磁道来提升容量,但会降低数据重写性能。
希捷还推出了采用SMR技术的32TB和36TB容量Exos M硬盘。IronWolf Pro系列不提供SMR版本。
希捷边缘存储和服务部门高级副总裁Melyssa Banda表示:"随着近150个国家采用数据主权要求,数据重力正越来越多地将网络拉向边缘,AI工作负载持续扩展。数据中心——无论是本地、私有还是主权数据中心——都在利用AI来释放其专有数据的价值。我们的30TB硬盘旨在支持这些快速增长的趋势,提供支持AI工作负载所需的容量、效率和可靠性。"
Exos M硬盘采用3.5英寸规格,转速7200rpm,内含10个充氦盘片,提供250万小时MTBF评级、5年有限保修和6Gbps SATA接口。希捷去年1月首次发布30TB Exos M。经过超大规模客户的长期验证和超过100万块HAMR硬盘的出货后,现已全面上市。
IronWolf Pro硬盘是Exos系列的变体,此前最大容量为24TB。现在借助HAMR技术提升至28TB和30TB容量级别。它们具有高达550TB/年的工作负载评级、250万小时MTBF和5年有限保修。
希捷将新的Exos M硬盘定位为边缘AI数据存储设备,"帮助组织扩展存储、优化数据放置并支持实时边缘分析,而不会影响性能或可持续性"。
公司补充道:"本地NAS系统正在演变为智能数据中心——支持视频分析、图像识别、检索增强生成(RAG)和边缘推理等高级工作负载。"希捷引用最新市场分析预测,在数字化转型以及AI和大数据分析兴起的推动下,全球NAS市场到2034年将以超过17%的复合年增长率增长。
希捷认为,在AI边缘应用中,机械硬盘与固态硬盘形成互补。公司引用了IDC机械硬盘和存储技术研究总监Ed Burns的话:"虽然通常不与低延迟等性能相关联,但最高容量的机械硬盘是AI开发过程中的关键战略资产,满足了存储构建和改进当今及未来市场最高质量AI模型所必需的基础数据的大容量存储需求。"
希捷引用HPE的边缘AI市场增长数据:"HPE预测本地AI市场将以90%的复合年增长率增长,三年内达到420亿美元。"
迄今为止,AI边缘市场尚未显著推动机械硬盘销售。
希捷的硬盘竞争对手目前正在追赶。西部数据的Ultrastar机械硬盘最高容量为26TB(CMR H590),并使用SMR技术达到28TB(HC680)和32TB(HC690)容量级别。其Red Pro NAS硬盘最大容量也为26TB。
东芝的叠瓦式MA11达到28TB级别,其传统记录的MG11硬盘容量为24TB。
希捷的硬盘产品网页提供了新硬盘的更多信息。Exos M和IronWolf Pro 28TB和30TB硬盘现已通过希捷在线商店以及全球授权经销商和渠道合作伙伴发售。
Exos M和IronWolf Pro 30TB硬盘定价599.99美元,相应的28TB产品定价569.99美元。英国定价略有不同:Exos M 30TB为498.99英镑,Exos M 28TB为478.99英镑。但IronWolf Pro 30TB为559.99英镑,IronWolf Pro 28TB为526.99英镑。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。