企业数据存储领域领导者 Solidigm正式揭幕其 AI 中央实验室。该实验室配备了专为多种AI工作负载量身打造的高性能、高密度的存储测试集群。
这座先进的 AI 中央实验室坐落于美国兰乔科尔多瓦的 FarmGPU 设施内,紧邻 Solidigm 总部。在这里,Solidigm 能够利用NVIDIA B200 和 H200 图形处理器,运行并研究真实的 AI 工作负载。这不仅为我们理解前沿存储技术如何最大限度地提升集群效率,提供了独到的见解,更让 Solidigm 在 AI 生态系统中的重要合作伙伴,有机会在先进的硬件平台上充分开展实验。
Solidigm AI 生态系统与合作伙伴关系高级总监 Avi Shetty 强调:“Solidigm AI 中央实验室将当前强大的 GPU 与领先的存储基础设施融合,为客户和开发者社区开启了前所未有的测试与联合创新篇章。Solidigm 希望这些能力可以惠及更多用户,同时证明了存储与 GPU 紧密集成的重要性与价值。”
该实验室在建设之初便秉持通用参考架构理念,客户可以在一个与全球大型数据中心保持一致标准的环境中,利用 Solidigm SSD测试其解决方案。此外,实验室还将大力推动存储研究,超越传统的组件级测试范畴,更深层次地理解服务器、机架乃至集群层面的真实应用场景。
Shetty 进一步指出:“如今,仅仅进行存储测试已远远不够。在AI 中央实验室,我们能够运行真实场景的AI 工作负载,并借助尖端遥测技术来优化系统性能和效率,以便更深刻地理解新兴工作负载对存储的实际需求。”
AI中央实验室配备了最新的高性能计算硬件,包括:
实验室可供测试的工作负载包括:
目前,该实验室已与多家机构建立了合作。其中之一是,Solidigm 与 Metrum AI 的专家们携手攻关,成功开发出一种创新技术,能够将 AI 数据从内存卸载至SSD,从而在使用 RAG(检索增强生成)进行推理时,将DRAM的使用量降低高达 57%。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。