HPE和DataDirect Networks(DDN)正在合作将DDN存储以及突发缓冲产品与HPE的Apollo服务器以及DMF工作流管理器进行整合。
这一合作的结果将是打造一款集成的HPE服务器存储产品组合,双方都将获益。
这次合作涉及的DDN产品包括IME闪存缓存/NVMe驱动器突发缓冲器,带有英特尔Lustre软件的EXAscaler阵列,以及支持IBM并行文件系统Spectrum Scale(也就是GPFS)的GRIDscaler阵列。
HPE的Apollo服务器包含大量ProLiant Gen 9服务器刀片,其中一些是水冷的。目前HPE与横向扩展文件存储软件提供商例如Qumulo和WekaIO都有合作关系。
DMF是Data Management Framework的缩写,提供工作流、数据管理、保护和灾难恢复功能。我们可以设想一个DMF覆盖了集成增强型EXAscaler的Apollo服务器和前端是IME缓冲引擎的GRIDscaler阵列。
HPE和DDN表示:“这次合作的重点是加速和简化客户在技术计算、人工智能和机器学习环境中的工作流。”
评论
客户引言中提到了实现数据吞吐量和数据保护的最大化。我们可以看到关于数据吞吐量的信息,但没有看到数据保护。DDN可能会建议使用他们的WOS对象存储系统作为备份目标,但这并没有包含在这次合作中。既没有提到任何备份软件产品,也没有提到备份至公有云层中。
我们就这个问题询问了DDN和HPE,DDN市场总监Kurt Kuckein回答说:“这次我们谈到的是更广泛的条款,而没有细化到备份和恢复。”
“一般来说,这覆盖了工作流和硬件故障——包括端到端地测试解决方案(在DDN和HPE之间进行联合测试),以及DDN SFA功能来保持在线,并在执行及时重建的时候以降级模式提供全面的性能。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。