HPE的The Machine研究项目首次展示了一款基于ARM的、160TB内存系统原型,并称之为全球最大的单一内存计算机。
去年11月,HPE开发了The Machine的概念原型,并称不在打算售卖实际的产品版本,但会在未来几年把这个组件技术集成到各种HPE产品中。
6月HPE实验室总监Martin Fink,同时也是该项目的推动者,离职了。
专注于内存计算的Machine项目是HPE历史上最大的研发项目。11月公布的原型已经向前推进,现在使用的是ARM处理器,且具有:
- 160TB共享内存,在40个物理节点上分布、共享
- 节点和内存通过框架协议进行互连
- 基于Linux的操作系统运行在ThunderX2——Cavium的第二代双路ARMv8-A片上系统
- 光子/光学通信链路,包括新的X1光子模块
软件编程工具旨在利用持久内存。
160TB Machine原型组件
HPE实验室总监Mark Potter在声明中称:“我们相信以内存为驱动的计算是推动技术行业向前发展的解决方案,可以实现社会方方面面的进步。我们推出的这个架构可以运用于每一种计算——从智能边缘设备到超级计算机。”
HPE的发布将Machine原型架构的前景推向了“EB级的单一内存系统,甚至是更高的层面,推向一种几乎无限的内存池——4096YB,相当于今天整个数字宇宙的1000倍。”
HPE首席执行官Meg Whitman谈到大数据分析时表示:“下一个伟大的科学突破、行业变革的创新、或是改变生命技术的秘密,隐藏在我们每天创造的海量数据中。为了实现这个承诺,我们不能还依赖过去的技术,我们需要一个为大数据时代设计的计算机。”
好文章,需要你的鼓励
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。