研究机构Futurum最近支持发表的一篇研究论文认为,普通硬盘可能比闪存驱动器更加环保。这篇论文指出,最主要的碳排放实际发生在设备制造期间,而闪存驱动器的碳排放实际比普通硬盘更多。
在这份题为《SSD真比HDD更具可持续性吗?》(https://futurumgroup.com/insights/are-ssds-really-more-sustainable-than-hdds/)的研究报告中,Futurum分析师Mitch Lewis宣称,“SSD中所使用闪存设备的制造过程涉及能源高度密集的工艺。与具有相同容量的硬盘驱动器(HDD)相比,闪存驱动器的能源成本高出约8倍。”
他还引用了最近在HotCarbon 2022大会上发表的一项研究,题为《SSD的肮脏秘密:本体碳成本》(https://www.youtube.com/watch?v=-0tzoSEL8iA)。这项研究由威斯康星大学麦迪逊分校计算机科学教授Swamit Tannu和加拿大不列颠哥伦比亚大学计算机科学助理教授Prashant J Nair共同完成。
该研究声称,“制造1 GB闪存须排放0.16千克二氧化碳,这已经在系统的总碳排放中占据很大一部分……闪存与DRAM制造中心使用的也大多不是可再生电力,其旺盛的能源需求往往只能用碳密集型的发电形式予以满足。”也就是说,这0.16千克二氧化碳就是SSD的本体碳成本。
尽管物体体积更大,但“与SSD相比,HDD的本体碳成本至少要低一个数量级。”这是因为HDD制造流程中的半导体密集度远低于SSD,而且消耗的电力也比半导体制造更低。此外,“大多数半导体制造厂使用的电力来自燃烧和燃气发电厂”,而非可再生能源。
对SSD与HDD环保程度的判决当然不仅限于制造耗电量,“还必须考虑到存储架构中的具体碳成本。”
该研究评估并比较了HDD与SSD的全生命周期碳排放量(按5年和10年两种使用周期计算),具体如下表所示:

其中的CO2e即为总体碳排放成本(单位为千克)。我们绘制了HDD和SSD的全生命周期排放数据(最右侧两列),下图为可视化转换后的形式:

根据这项研究,HDD在制造和使用寿命期间对应的总碳排放也比SSD更少,因此对于自然环境更为友好。
另外需要注意的是:
Lewis写道,“人们普遍认为SSD的可持续性比HDD更好,因为其无需依赖机械活动部件、所以能效更高。这种能效论点在供应商营销中被大量使用,特别是那些销售全闪存存储系统的供应商。”
但本次研究改变了这一切。“这是个相当令人惊讶的结果。绝大多数供应商宣称SSD比HDD更具可持续性,但从此次报告来看事实似乎并非如此。”
Lewis表示,作者可能没有考虑到“HDD和SSD的技术更新周期已经分开……HDD的更新周期通常为4到5年……但(提供较长保修期的供应商)已经帮助IT部门将设备的使用周期延长到了10年。”
按照这个假设来计算,那么SSD使用10年的碳成本为209.2千克(CO2e)。这个数字与HDD的水平更加趋近,但仍比HDD要高。
由于SSD的容量(存储密度)增速比HDD更快,“这种密度差异可能驱使IT部门更多选择SSD以节约物理占用空间,由此带来的碳排放贡献将弥补HDD与SSD之间的排放量差异。”
“尽管如此,SSD与HDD在可持续性方面的区别,确实比很多闪存存储供应商宣传中得经近似得多。”但在未来,“以密度更高的设备显著削减物理空间占用量,应该有助于改善数据中心的总碳排放量。”也就是说,SSD应该会表现出一定的可持续性优势。
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。