韩国科技公司Panmnesia在2023年的Flash Memory Summit上展示了其集中式CXL内存系统。在一次现场演示中,该系统在运行Meta推荐应用程序时展示了比基于RDMA的系统快三倍以上的性能指标。
这项CXL技术是与位于大田的韩国科学技术研究院(KAIST)合作开发的。Panmnesia已经打造了一个包括CXL CPU、交换机和内存扩展器模块的全面CXL框架。该框架拥有基于DIMM的6TB容量的CXL内存。该公司的策略是将其CXL硬件和软件知识产权产品推向CXL系统开发商和制造商。
Panmnesia的首席执行官Myoungsoo Jung博士表示:“我们很高兴能在今年的Flash Memory Summit上介绍我们创新的多TB全系统CXL框架。通过我们的CXL IP,我们致力于开拓尖端解决方案,相信这将显著提升数据中心的内存和存储能力。”
这个演示系统的容量比同样在FMS 2023展示的基于2TB三星/MemVerge的池式内存系统大三倍。
Panmnesia硬件
Panmnesia框架系统机箱有两个CXL CPU模块(如上图所示)、三个颜色较浅的CXL交换机模块和六个1TB内存模块或CXL端点控制器,形成一个统一的DIMM池。
在软件方面,该系统运行在Linux上,由CXL硬件设备驱动程序、虚拟机子系统和CXL优化的用户应用程序组成。有趣的是,虚拟机软件组件在内存空间中创建了一个无CPU的NUMA节点。
Panmnesia软件
一个视频幻灯片展示了这个CXL框架系统在类似Meta推荐应用程序的电影推荐应用中的性能。 这再次与没有添加外部内存的服务器和基于RDMA的替代方案进行了比较。
Panmnesia 与RDMA的比较
视频从加载用户和项目数据(在张量初始化期间)开始,随后使用机器学习模型进行电影推荐。Panmnesia系统完成任务的速度 是RDMA系统的3.32倍。
Panmnesia系统的另一个好处是它的模块化;内存模块中的DIMM可以被替换,可以使用更大容量的DIMM来扩展内存容量,而不需要增加额外的内存模块。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
马里兰大学研究团队通过测试25个大型AI模型发现,即使最先进的AI评判系统在需要同时考虑多个标准时也会出现严重偏差,准确率仅32%-53%。研究构建了Multi-Crit评测基准,揭示了AI在多标准权衡中的根本性局限,为改进AI评判系统的公平性和可靠性提供了重要参考,对AI在内容审核、产品评价等应用场景具有重要指导意义。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
南京理工大学团队开发ViLoMem框架,首次实现AI的双流记忆机制,分别处理视觉和逻辑错误。该系统模仿人类认知,让AI能从错误中持续学习,在数学推理等多模态任务中显著提升准确率,为AI从被动工具向主动学习伙伴的转变提供了重要技术突破。