希捷公司正在向其北爱尔兰纳米光子学业务再投资1亿英镑,押注硬盘驱动器在AI数据中心中将发挥关键作用,并持续到下一个十年。
这家硬盘巨头将在未来五年内向德里工厂总共投资1.15亿英镑,其中1500万英镑将来自该地区经济发展机构Invest NI。
希捷在德里已经经营超过30年,最近的重点是开发和制造用于该公司Mozaic磁盘驱动器记录头的激光器。
希捷首席技术官约翰·莫里斯表示:"来自这个工厂的纳米光子学技术与未来产品发布保持一致,特别是在Mozaic +4+时间框架内...但更重要的是,它为我们将逐步投入生产的所有下游Mozaic平台奠定了基础。"
他说当前项目"专门针对能够提供至少每盘6TB容量的技术,并在我们今年早些时候宣布的达到每盘10TB容量的路径中发挥重要作用。"
3+等命名法指的是每个磁盘或盘片的TB数量,莫里斯说,希捷目前能够将多达10个驱动器集成到单个驱动器单元中。
今年5月,希捷表示预计在2032年左右交付100TB驱动器。正如莫里斯今天解释的那样:"正如你可能想象的,预测七年后的情况存在一定程度的不确定性。"
他说,激光组件只是提供更高容量驱动器所需的多个关键部件之一。"有一个波导和一个等离子体换能器,它将激光的能量转换为我们可以在介质中有效交换以支持写入过程的能量。"
他继续说:"我们能够制造的特征越小,我们能够设计的关键特征越小,主要是在等离子体天线中,我们在磁盘驱动器中能够支持的容量就越高。因此,这是一场在纳米尺度上将一切小型化的竞赛。"
该公司表示,这一努力至少部分是为了满足超大规模数据中心和AI数据繁荣所驱动的数据需求。
突破存储层级
普遍观点认为,固态硬盘是在AI数据中心中提供存储的关键,无论是从性能还是热控制角度来看。
莫里斯同意:"在AI的情况下,你有GPU,与之紧密耦合的是HBM内存。下一层往往是闪存。对于计算密集型工作,大部分数据路径跨越这些内存和存储。"
但他继续说,下一层存储专注于非常大的数据集,如艾字节规模的数据湖,这些数据湖只会变得更大。"那一层存储往往是90%以上的磁盘驱动器,其余是闪存,它提供了一个层级,使得在非常大的数据湖中存取数据变得容易。"
鉴于硬盘驱动器在字节对字节的成本上有5到10倍的优势,而这种情况在未来十年内不太可能改变,他说:"这只是一个经济学问题,只要你知道艾字节规模的数据湖需要磁盘驱动器的卓越经济性才能使其工作。"不过必须说明的是,并非所有人都同意这一观点。
当然有人热衷于购买传统驱动器。希捷最新业绩显示,全年营业额增长39%至91亿美元,净利润为14.7亿美元,比前一年的3.35亿美元大幅增长,这主要由向云服务提供商销售HAMR产品线推动。
现任首席执行官兼董事长戴夫·莫斯利当时表示,边缘数据中心的增长和对数据主权的追求预示着对大容量硬盘驱动器的需求在未来很长一段时间内都将保持良好态势。
Q&A
Q1:希捷在德里工厂投资的主要目的是什么?
A:希捷在德里工厂投资1.15亿英镑主要是为了开发和制造用于Mozaic磁盘驱动器记录头的纳米光子学激光器技术。这项投资专门针对能够提供至少每盘6TB容量的技术,并为实现每盘10TB容量的目标奠定基础。
Q2:硬盘驱动器在AI数据中心中扮演什么角色?
A:虽然AI计算主要依赖GPU、HBM内存和闪存,但硬盘驱动器在下一层存储中发挥关键作用。它们主要用于艾字节规模的大型数据湖存储,占该层级存储的90%以上,因为硬盘在字节成本上比闪存有5到10倍的优势。
Q3:希捷如何实现更高容量的磁盘驱动器?
A:希捷通过纳米级技术小型化来实现更高容量。关键是缩小等离子体天线等关键特征的尺寸,同时优化激光、波导和等离子体换能器等组件。这是一场在纳米尺度上将所有组件小型化的技术竞赛,目标是到2032年实现100TB驱动器。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。