研究机构Futurum最近支持发表的一篇研究论文认为,普通硬盘可能比闪存驱动器更加环保。这篇论文指出,最主要的碳排放实际发生在设备制造期间,而闪存驱动器的碳排放实际比普通硬盘更多。
在这份题为《SSD真比HDD更具可持续性吗?》(https://futurumgroup.com/insights/are-ssds-really-more-sustainable-than-hdds/)的研究报告中,Futurum分析师Mitch Lewis宣称,“SSD中所使用闪存设备的制造过程涉及能源高度密集的工艺。与具有相同容量的硬盘驱动器(HDD)相比,闪存驱动器的能源成本高出约8倍。”
他还引用了最近在HotCarbon 2022大会上发表的一项研究,题为《SSD的肮脏秘密:本体碳成本》(https://www.youtube.com/watch?v=-0tzoSEL8iA)。这项研究由威斯康星大学麦迪逊分校计算机科学教授Swamit Tannu和加拿大不列颠哥伦比亚大学计算机科学助理教授Prashant J Nair共同完成。
该研究声称,“制造1 GB闪存须排放0.16千克二氧化碳,这已经在系统的总碳排放中占据很大一部分……闪存与DRAM制造中心使用的也大多不是可再生电力,其旺盛的能源需求往往只能用碳密集型的发电形式予以满足。”也就是说,这0.16千克二氧化碳就是SSD的本体碳成本。
尽管物体体积更大,但“与SSD相比,HDD的本体碳成本至少要低一个数量级。”这是因为HDD制造流程中的半导体密集度远低于SSD,而且消耗的电力也比半导体制造更低。此外,“大多数半导体制造厂使用的电力来自燃烧和燃气发电厂”,而非可再生能源。
对SSD与HDD环保程度的判决当然不仅限于制造耗电量,“还必须考虑到存储架构中的具体碳成本。”
该研究评估并比较了HDD与SSD的全生命周期碳排放量(按5年和10年两种使用周期计算),具体如下表所示:

其中的CO2e即为总体碳排放成本(单位为千克)。我们绘制了HDD和SSD的全生命周期排放数据(最右侧两列),下图为可视化转换后的形式:

根据这项研究,HDD在制造和使用寿命期间对应的总碳排放也比SSD更少,因此对于自然环境更为友好。
另外需要注意的是:
Lewis写道,“人们普遍认为SSD的可持续性比HDD更好,因为其无需依赖机械活动部件、所以能效更高。这种能效论点在供应商营销中被大量使用,特别是那些销售全闪存存储系统的供应商。”
但本次研究改变了这一切。“这是个相当令人惊讶的结果。绝大多数供应商宣称SSD比HDD更具可持续性,但从此次报告来看事实似乎并非如此。”
Lewis表示,作者可能没有考虑到“HDD和SSD的技术更新周期已经分开……HDD的更新周期通常为4到5年……但(提供较长保修期的供应商)已经帮助IT部门将设备的使用周期延长到了10年。”
按照这个假设来计算,那么SSD使用10年的碳成本为209.2千克(CO2e)。这个数字与HDD的水平更加趋近,但仍比HDD要高。
由于SSD的容量(存储密度)增速比HDD更快,“这种密度差异可能驱使IT部门更多选择SSD以节约物理占用空间,由此带来的碳排放贡献将弥补HDD与SSD之间的排放量差异。”
“尽管如此,SSD与HDD在可持续性方面的区别,确实比很多闪存存储供应商宣传中得经近似得多。”但在未来,“以密度更高的设备显著削减物理空间占用量,应该有助于改善数据中心的总碳排放量。”也就是说,SSD应该会表现出一定的可持续性优势。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。