Facebook 母公司 Meta 正在探索在其数据中心使用 QLC 闪存作为额外的存储层级,以应对不断增长的数据量,同时平衡性能维护和能源效率。
扎克伯格的科技帝国在一篇博客文章中表示,他们计划部署四层单元 (QLC) SSD 作为大容量存储硬盘 (HDD) 和性能型三层单元 (TLC) 驱动器之间的中间层级。
Meta 称这一举措很有必要,因为虽然 HDD 的容量在不断扩大,但其 I/O 性能并未相应提升。这导致每太字节的带宽持续下降,迫使 IT 人员不得不将热数据转移到 TLC 闪存层,或是过度配置存储资源来满足性能需求。
由于 QLC 闪存的性能较慢且寿命较短(这两个特点都与每个单元存储的比特数有关),因此在企业环境中不如 TLC 常见。不过,更高的单元比特数意味着 QLC SSD 可以提供更大的容量,且每太字节的成本可以与 HDD 相当。
据 Meta 的工程师称,QLC 在 HDD 和 SSD 之间的性能谱系中占据着"独特位置",可以服务于那些"依赖于 10 MB/s/TB 范围性能的工作负载,即我们使用 16-20TB HDD 的场景"。
"此外,还有一些执行大批量 I/O 的工作负载,它们不需要很高的性能,但仍在 15-20 MB/s/TB 范围内,目前使用 TLC 闪存",Meta 补充道。
Meta 的工作负载可能与普通企业的数据访问模式有所不同,因此其创建 QLC 存储层的研究和工程努力可能并不适用于其他企业。
Meta 正在与存储供应商合作,将 QLC 存储集成到其数据中心中。特别是与 Pure Storage 的合作,该公司在其存储系统中使用自己的 NAND 闪存模块,以提高可靠性并延长驱动器寿命。
这不仅仅是采购一批 QLC SSD 并将其插入服务器那么简单。Meta 表示需要调整其存储软件层以利用新的存储层级。
Meta 认为 QLC 驱动器的主要优势在于驱动器和服务器级别的字节密度以及相关的能源效率。他们声称,基于 QLC 的服务器的字节密度目标是当前基于 TLC 服务器的 6 倍。
博客指出:"跨 CPU 核心和插槽扩展如此高的吞吐量需要谨慎地放置数据和计算来处理 I/O。我们需要确保最小化数据接触点,并能够按类型分离 I/O。"
为此,Meta 似乎将选择采用 Pure Storage 的 DirectFlash 模块和配套的 DirectFlash 软件,以确保 QLC 存储的可靠性。
随着内存供应商持续改进 QLC 设计并提高产量,Meta 正押注于成本改善,使这类存储在更广泛的数据中心工作负载中变得可行。
去年,中国内存企业长江存储声称已将 QLC 闪存的耐久性提升至与 TLC 相当的水平。
好文章,需要你的鼓励
由贝索斯共同领导的普罗米修斯项目已收购AI初创公司General Agents。该公司开发了名为Ace的AI智能体,可自主执行视频编辑、数据复制等计算机任务。General Agents基于视频语言行为架构开发模型,这与普罗米修斯项目专注制造业AI系统的目标高度契合。收购完成后,普罗米修斯团队已超过100人,预计将推进工业机器人领域的AI应用发展。
斯科尔科技学院联合俄罗斯多家研究机构开发出革命性的多语言AI虚假信息检测技术。该研究构建了覆盖14种语言的大型数据集PsiloQA,通过"诱导AI说谎"的创新方法自动生成训练样本,成本仅为传统人工标注的数十分之一。实验证明多语言训练的检测模型性能显著优于单语言模型,为全球AI可信度监督提供了实用解决方案。
Kagi公司发布Orion浏览器1.0版本,这是一款专为苹果平台设计的全新浏览器。该浏览器主打极速浏览体验和用户隐私保护,完全免费使用并附赠200次Kagi搜索。Orion还提供月费5美元的付费订阅服务,解锁更多高级功能。未来计划包括更深度的自定义选项和性能优化。
NVIDIA研究团队发现,训练机器人最有效的方法竟然是最简单的:直接用普通文字告诉机器人该做什么,而不需要复杂的编码系统。他们开发的VLA-0系统在标准测试中超越了所有复杂方法,平均成功率达94.7%,在真实机器人测试中也比预训练系统高出12.5个百分点。这项发现挑战了"越复杂越好"的传统观念,可能加速智能家用机器人的普及。