分析:HPE 的 Alletra MP X10000 对象存储系统代表了一类采用 VAST Data 开创的分离式共享一切 (DASE) 架构的新型横向扩展存储硬件。HPE 全球技术与战略架构师 Dimitris Krekoukias 撰写了一篇博客,详细介绍了其主要特性及其设计理念。
他列举了系统的关键特性,包括用于 S3 的 RDMA 和 GPUDirect、数据服务分区、键值存储基础、单一存储桶速度、高吞吐量和小型事务的平衡读写速度、小型写入缓冲等功能。
该系统采用 HPE 自主技术构建,而非 OEM 软件或授权硬件。它由基于 ProLiant 的存储服务器控制器节点和独立的全闪存储或容量节点组成,通过 NVMe 内部架构互联,并存在于全局命名空间中。容器化操作系统最初提供对象存储功能,但可以在其基础日志结构化键值存储之上支持其他协议,并可添加额外的协议层。
Krekoukias 表示:"这些协议层针对特定协议的语义进行了优化,将每个协议都视为一等公民。这使 X10000 能够充分利用每个协议的优势,而不会继承第二个协议的缺点或在协议之上运行其他协议(如对象协议在文件协议之上或反之)。"
HPE 需要系统能够使用 RDMA (远程直接内存访问) 和 Nvidia 的 GPUDirect for S3 协议快速访问对象数据,为 GPU 服务器提供直接存储驱动器访问。Krekoukias 写道:"与 TCP 相比,这项技术将大大提升性能并显著降低 CPU 需求,使您能够更充分地利用基础设施,并消除 GPUDirect 管道中的 NAS 瓶颈。"
他声称:"通过三重以上纠删码和级联多级校验和(这是从 Nimble 以及后来的 Alletra 5000 和 6000 首次看到的保护机制的演进),确保了极致的弹性和数据完整性。"写入缓冲区位于 SSD 而不是 NVRAM 中,"消除了 HA 对的限制。"
每个驱动器被分区为所谓的小型逻辑驱动器或磁盘片,小至 1 GB,这些磁盘片被放入 RAID 组中。这些 RAID 组可以限制在一个 JBOF (存储节点) 内,或跨越多个 JBOF 以防止故障。输入数据经过压缩,"通过使用 24 个磁盘片的 RAID 组确保良好的空间效率。"
工作负载被切分为数据服务分区 (DSP),DSP 分片在独立的控制器节点上运行。如果一个或多个控制器节点失效,受影响的 DSP "只需在剩余控制器之间进行均匀重新分配即可。"磁盘片 RAID 切片根据需要动态分配给 DSP。
Krekoukias 指出:"由于所有状态仅在 JBOF 中持久化,节点完全无状态,因此 DSP 的移动只需几秒钟,且不涉及数据移动...由于对象基于哈希分布在 DSP 中,性能始终在集群节点间保持负载均衡。"计算和存储容量可以独立扩展。
除了 GPUDirect for S3 外,性能一直是系统设计的重点。博客告诉我们,"典型的非结构化工作负载,如分析和数据保护,假定每个应用单元(如单个仓库或备份链)使用单个存储桶或少量存储桶。"由于 DSP 分片概念,无需使用多个小型存储桶来提高 I/O 性能。
他写道:"X10000 线性扩展单个存储桶的能力意味着单个应用程序与大量应用程序或租户一样,都能从 X10000 的横向扩展能力中受益。"
HPE 表示,X10000 具有平衡的性能,因为它"旨在提供平衡的读写性能,既适用于高吞吐量,也适用于小型事务操作。这意味着对于重写入工作负载,不需要大规模集群。这带来了针对任何工作负载的优化性能体验,并能够在不浪费资源的情况下达到性能目标。"
该系统的"X10000 日志结构化键值存储是基于区段的",区段大小可变。区段是一个连续的存储块,可容纳多个键值对,从而提高访问速度。元数据和数据访问也可以适应应用程序边界。
"X10000 的写入缓冲区和索引针对小对象进行了优化。X10000 实现了一个写入缓冲区,小型 PUT 操作首先提交到该缓冲区,然后再归档到日志结构化存储中,元数据更新则合并到分形索引树中以实现高效更新。"
小对象写入 (PUT) "在归档到日志结构化、受纠删码保护的存储之前,先提交到 X10000 的写入缓冲区。写入缓冲区提交可减少小型 PUT 的延迟并降低写入放大。写入缓冲区存储在与日志结构化存储相同的 SSD 上,由一组磁盘片组成。"
Krekoukias 表示:"基于 SSD 的写入缓冲区可以为延迟敏感的结构化数据工作负载提供与 NVDIMM 等先前方法相同的高可靠性和低延迟。"
所有这些设计要点意味着小型 X10000 配置(仅具有 192 TB 原始容量和 3.84 TB SSD)就能获得良好的性能,无需扩大集群规模即可实现高性能。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。