Facebook 母公司 Meta 正在探索在其数据中心使用 QLC 闪存作为额外的存储层级,以应对不断增长的数据量,同时平衡性能维护和能源效率。
扎克伯格的科技帝国在一篇博客文章中表示,他们计划部署四层单元 (QLC) SSD 作为大容量存储硬盘 (HDD) 和性能型三层单元 (TLC) 驱动器之间的中间层级。
Meta 称这一举措很有必要,因为虽然 HDD 的容量在不断扩大,但其 I/O 性能并未相应提升。这导致每太字节的带宽持续下降,迫使 IT 人员不得不将热数据转移到 TLC 闪存层,或是过度配置存储资源来满足性能需求。
由于 QLC 闪存的性能较慢且寿命较短(这两个特点都与每个单元存储的比特数有关),因此在企业环境中不如 TLC 常见。不过,更高的单元比特数意味着 QLC SSD 可以提供更大的容量,且每太字节的成本可以与 HDD 相当。
据 Meta 的工程师称,QLC 在 HDD 和 SSD 之间的性能谱系中占据着"独特位置",可以服务于那些"依赖于 10 MB/s/TB 范围性能的工作负载,即我们使用 16-20TB HDD 的场景"。
"此外,还有一些执行大批量 I/O 的工作负载,它们不需要很高的性能,但仍在 15-20 MB/s/TB 范围内,目前使用 TLC 闪存",Meta 补充道。
Meta 的工作负载可能与普通企业的数据访问模式有所不同,因此其创建 QLC 存储层的研究和工程努力可能并不适用于其他企业。
Meta 正在与存储供应商合作,将 QLC 存储集成到其数据中心中。特别是与 Pure Storage 的合作,该公司在其存储系统中使用自己的 NAND 闪存模块,以提高可靠性并延长驱动器寿命。
这不仅仅是采购一批 QLC SSD 并将其插入服务器那么简单。Meta 表示需要调整其存储软件层以利用新的存储层级。
Meta 认为 QLC 驱动器的主要优势在于驱动器和服务器级别的字节密度以及相关的能源效率。他们声称,基于 QLC 的服务器的字节密度目标是当前基于 TLC 服务器的 6 倍。
博客指出:"跨 CPU 核心和插槽扩展如此高的吞吐量需要谨慎地放置数据和计算来处理 I/O。我们需要确保最小化数据接触点,并能够按类型分离 I/O。"
为此,Meta 似乎将选择采用 Pure Storage 的 DirectFlash 模块和配套的 DirectFlash 软件,以确保 QLC 存储的可靠性。
随着内存供应商持续改进 QLC 设计并提高产量,Meta 正押注于成本改善,使这类存储在更广泛的数据中心工作负载中变得可行。
去年,中国内存企业长江存储声称已将 QLC 闪存的耐久性提升至与 TLC 相当的水平。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。