HPE和DataDirect Networks(DDN)正在合作将DDN存储以及突发缓冲产品与HPE的Apollo服务器以及DMF工作流管理器进行整合。
这一合作的结果将是打造一款集成的HPE服务器存储产品组合,双方都将获益。
这次合作涉及的DDN产品包括IME闪存缓存/NVMe驱动器突发缓冲器,带有英特尔Lustre软件的EXAscaler阵列,以及支持IBM并行文件系统Spectrum Scale(也就是GPFS)的GRIDscaler阵列。
HPE的Apollo服务器包含大量ProLiant Gen 9服务器刀片,其中一些是水冷的。目前HPE与横向扩展文件存储软件提供商例如Qumulo和WekaIO都有合作关系。
DMF是Data Management Framework的缩写,提供工作流、数据管理、保护和灾难恢复功能。我们可以设想一个DMF覆盖了集成增强型EXAscaler的Apollo服务器和前端是IME缓冲引擎的GRIDscaler阵列。
HPE和DDN表示:“这次合作的重点是加速和简化客户在技术计算、人工智能和机器学习环境中的工作流。”
评论
客户引言中提到了实现数据吞吐量和数据保护的最大化。我们可以看到关于数据吞吐量的信息,但没有看到数据保护。DDN可能会建议使用他们的WOS对象存储系统作为备份目标,但这并没有包含在这次合作中。既没有提到任何备份软件产品,也没有提到备份至公有云层中。
我们就这个问题询问了DDN和HPE,DDN市场总监Kurt Kuckein回答说:“这次我们谈到的是更广泛的条款,而没有细化到备份和恢复。”
“一般来说,这覆盖了工作流和硬件故障——包括端到端地测试解决方案(在DDN和HPE之间进行联合测试),以及DDN SFA功能来保持在线,并在执行及时重建的时候以降级模式提供全面的性能。”
好文章,需要你的鼓励
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。