一份 Seagate 的 Decarbonizing Data 报告指出,超过一半的企业领导者将能源使用视为主要关注点,而更高效地利用硬盘则是数据中心的明智选择。
报告引用了高盛的预测:到 2030 年,全球数据中心的电力需求相比 2023 年可能增长多达 165%。鉴于此,报告指出,数据量激增、能效提升速度放缓以及 AI 采用率上升正使各组织在同时管理碳排放、基础设施扩展和总体拥有成本(TCO)方面承受压力。
Seagate 云营销高级副总裁 Jason Feist 在报告中表示:“数据中心正受到严格审视——不仅因为它们支持现代 AI 工作负载,而且因为它们正成为数字经济中最耗能的行业之一。这要求我们对数据基础设施的认识进行根本性转变——不再将其视为成本与可持续性之间的权衡,而是看作在两者间实现优化的机会。”
那么,Seagate 认为这种根本性转变包含哪些内容呢?是要淘汰旋转硬盘吗?绝非如此。报告中包含了一张展示三种主要存储介质(硬盘、 SSD 和磁带)体内碳排放情况的表格:
结论如下: o SSD 的整体及每 TB 的体内碳排放均最高,是三种存储介质中碳密集度最高的选择。 o 硬盘无论在总体还是每 TB 计算上呈现最低碳足迹,提供了最碳效率高的可持续存储解决方案。 o LTO 磁带的体内碳排放适中,但其年度影响超过硬盘。
报告提出构建更可持续数据未来的三大策略支柱: 1. 技术创新:借助计算能力、存储面积密度的提升以及液体/浸没式冷却和 HVAC 系统等节能技术的进步,可大幅降低能耗和碳排放,有效应对不断增长的需求。 2. 生命周期延长与循环利用承诺:通过翻新、重复使用和维护存储设备,能够延长设备使用寿命,减少废弃物。实时环境监测和透明的报告机制也有助于在数据中心内落实责任。 3. 全生态系统的共同责任:如报告中所述,要实现涵盖范畴 1、2 及 3 的显著减排,需要供应商、合作伙伴以及云服务提供商在整个价值链上的协同合作。
Seagate 举例提到其基于 HAMR 技术的 Mozaic 3+ 硬盘技术已进入量产阶段。该技术在相同体积下的容量最高可达 10 TB 硬盘的三倍以上,同时每 TB 的体内碳排放降低超过 70%,并且根据 IDC 的数据,每 TB 成本降低了 25%。
Feist 表示:“可持续性问题绝非孤立可以解决。只有在基础设施建设、生命周期管理和全行业责任落实等方面采取整体性策略,才能确保 AI 和数据中心运作的增长不会以牺牲环境为代价。”
Seagate 自行生产并销售面向数据中心的 Nytro SSD 产品。而基于闪存驱动器的厂商 Pure Storage 则持不同观点。正如预期,其采用的是系统级视角,而不是单个硬盘的计算方法。Pure 指出,就一个拥有 1 exabyte 存储部署、硬盘生命周期为五年及 DirectFlash 模块生命周期为十年的十年周期内,其分析显示硬盘系统排放碳达 107,984 公吨,而基于 Pure 系统的排放仅为 14,779 公吨。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。