HPE近日表示,正在扩展HPE GreenLake for File Storage的功能,推出了新的高密度全闪存存储系统以支持数据湖和管理人工智能工作负载。

HPE对于此次更新产品的性能改进做出了一些重大声明,称每个机架单元的容量提高了4倍,性能提高了2倍。HPE表示,通过这些改进,企业将能够把AI吞吐量提高2倍,同时显着降低功耗,在某些用例中能效提升高达50%。同时HPE补充说,这将使组织能够加速他们的AI工作负载,降低功耗和整体数据中心占地面积。
HPE GreenLake for File Storage属于HPE GreenLake即服务产品组合,让客户可以租用本地数据中心设备并像云服务一样对其进行管理。该产品由标准化的、可组合的构建块组成,这些构建块由计算节点、商品存储和网络交换机组成,可以根据不同的需求进行配置。
HPE Storage产品营销高级经理David Yu在一篇博文中表示,新产品解决了阻碍组织实现AI潜力并实现更大规模以释放数据价值的三个关键挑战。
性能提升
Yu表示,HPE GreenLake for File Storage有一些关键的创新,使其非常适合加速和扩展AI工作负载,包括训练、微调和推理。他说,这些很重要,因为大规模的性能限制可能会成为AI存储的一个巨大障碍,AI存储可以在容量方面进行扩展,但在性能方面却无法跟上。
他说:“HPE GreenLake for File Storage可以通过AI规模的企业性能加速数据密集型应用,能够涵盖了AI的所有阶段——从数据聚合、数据准备、训练和调整一直到推理。对于小的数据集来说,在某个时间点达到峰值的不仅仅是性能。相反,它是快速的、持续的性能,涵盖整个数据规模,适用于那些最苛刻的、数据密集型的AI应用,包括生成式AI和大型语言模型。”
Yu表示,HPE GreenLake for File Storage之所以能实现这一目标,得益于它具有分解的、共享一切的以及高度弹性的模块化架构,这种架构允许容量和性能相互独立地进行扩展。该产品是专门针对EB级工作负载设计的,可实现快速数据传输,从而确保快速且可预测的性能,无需前端缓存。这种架构意味着媒介之间没有数据移动,也没有分层数据管道,这使其成为增强数据密集型AI应用的一个理想选择。
简化管理
GreenLake for File Storage还解决了传统文件存储的一些问题,这些问题导致AI工作负载效率极低。传统上说,管理文件存储需要专门的领域专业知识,并且是一个繁琐的手动过程。然而,对于那些希望扩大AI规模的组织来说,这些管理任务是不可避免的。
凭借类似云的体验,GreenLake for File Storage简化了文件数据管理任务,减轻了IT团队的负担。Yu列举了其中一系列好处,包括简化部署、简单设置、轻松创建文件共享、快速完成作业、通过可在任何位置的任何设备上访问的单一云控制台进行存储管理统一化。
Yu表示,这些功能在现实世界中提供了一些优势:“您的数据科学家和业务线应用所有者将不再承受繁琐的、遗留的文件系统带来的负担,这些系统需要技术专业知识和复杂的设置流程才能运行起来。”
提高可扩展性
传统文件存储的第三个挑战是和AI对存储容量、机架空间和功耗永不满足的需求有关的。对于传统存储系统来说,如果不构建全新的数据中心,将AI工作负载扩展到某个点上是不切实际的。Yu解释说:“采用无共享架构的传统NAS解决方案无法有效地横向扩展,以满足AI工作负载对容量密度、每TB成本和能效的需求。”
HPE GreenLake for File Storage采用了各种创新技术来解决这一挑战,使组织能够将存储成本降低4倍,功耗降低2倍,将无开销快照和本机数据复制等先进技术与闪存存储的卓越效率以及HPE专有的Similarity数据压缩算法相结合,以实现更有效的数据缩减。
此外他表示,GreenLake for File Storage现在支持通过Nvidia InfiniBand、GPUDirect和RDMA网络技术优化GPU的利用率,从而实现更快的检查点,以加速模型训练和调整等AI工作负载。
他说:“为了支持您的AI计划并在当今市场中展开竞争,您需要一个支持AI的文件存储解决方案,这个解决方案可以提供企业级的性能、简单性和更高的效率,真正加速的AI工作负载需要AI可扩展性的所有三项指标,而且每一项对于在AI方面取得成功来说都是至关重要的。”
好文章,需要你的鼓励
微软CEO萨提亚·纳德拉希望推动AI接受度进入新阶段,重点关注AI工具如何赋能人类。在微软Copilot订阅和云AI服务收入能否抵消数据中心投资存疑的背景下,纳德拉有动机说服客户和投资者相信AI是明智的长期投资。他在新博客中提出2026年AI发展的三个关键点:将AI视为增强人类能力的工具、从单一模型转向多模型系统协作、以及在AI部署上做出明智的资源配置决策。
瑞士ETH苏黎世联邦理工学院等机构联合开发的WUSH技术,首次从数学理论层面推导出AI大模型量化压缩的最优解。该技术能根据数据特征自适应调整压缩策略,相比传统方法减少60-70%的压缩损失,实现接近零损失的模型压缩,为大模型在普通设备上的高效部署开辟了新路径。
法律行业正迅速采用生成式AI技术,用于案件研究、起草和审查等工作。调查显示,80%的法律专业人士认为AI将在五年内对其工作产生重大影响,约四分之三的律所已在使用AI进行文档审查和法律研究。律信数据公司推出的Lexis+ AI平台,整合了超过1380亿份文档记录和AI助手,帮助律师回答复杂问题、生成草案并提供诉讼洞察,成为该公司历史上增长最快的产品。
弗吉尼亚大学团队创建了Refer360数据集,这是首个大规模记录真实环境中人机多模态交互的数据库,涵盖室内外场景,包含1400万交互样本。同时开发的MuRes智能模块能让机器人像人类一样理解语言、手势和眼神的组合信息,显著提升了现有AI模型的理解准确度,为未来智能机器人的广泛应用奠定了重要基础。