NetApp正着手推出ONTAP FAS、E系列以及EF系列阵列,旨在为澳大利亚的NCI Raijin超级计算机提供更为出色的数据容量以及访问能力。
NCI全称为澳大利亚国家计算基础设施,而Raijin系统则“为富士通Primergy高性能、分布式内存集群。”
这套系统中包括:
• 总计3592个计算节点以及其中的57472个计算核心(采用英特尔至强Sandy Bridge技术,主频为2.6 GHz)。
• 主内存为160TB。
• 采用MellanoxInfiniband FDR互连机制。
• 可用快速文件系统容量为10PB(作为短期性活动空间使用)。
• 存储硬件采用DDN SFA12000 Hardware组RAID 5,二者当中各容纳有840块磁盘驱动器。
• 峰值处理性能约为每秒1.2千万亿次。
• 总体SPECfp_rate_2006浮点计算性能为160万。
Raijin据称是神道教中执掌雷鸣、闪电以及风暴的神。从读音角度出发,大家不妨直接将其称为Raging。
NetApp公司所提供的这套存储方案主要面向VMware与OpenStack用例,并将把Raijin的存储容量由原本的33PB提升到44PB。目前我们尚不清楚这多出来的11PB存储空间当中有多少由EF全闪存存储设备提供。这笔交易的总体金额为200万美元,NetApp将与富士通方面一道将相关硬件安装到Raijin系统当中。
很明显,NetApp提供的这套存储方案将以“pod”方式加以实现——即容量块化机制——这样用户即可根据规模化需要向其中添加更多pod单位。
NCI方面希望建立起一套全局并行文件系统存储机制,从而容纳国家环境研究数据收集(简称NERDC)数据集合,其内容深层空间研究到地球核心数据可谓无所不包。通过运用闪存存储的先天速度优势,研究人员计算任务的访问速度将得到极大提升。
面对这一案例,我们不禁产生了疑问。将FAS阵列应用为超级计算机存储机制确实非常典型,但采用E系列阵列则令人百思不得其解。其中最奇怪的部分是,NCI方面似乎并不打算单纯拓展其DDN存储容量——因为如果要达成这一目标,他们只需单纯安装并运维新的存储硬件即可。既然如此,他们为什么还要大费周章地引入一家新供应商、两套操作系统——即ONTAP与SANtricity——以及三款硬件产品:FAS、E系列以及EF系列阵列呢?
因为属于公共支出范畴,其中的缘由以及考量也许不足为我们这些外人所道。当然,这也可能是由Raijin系统特性使然。
备注:值得一提的是,这份订单当中同时也涉及到了DDN,其中指出DDN“……主宰着全球超级计算五百强站点,具体而言排名前一百的超级计算体系中有超过60%依靠DDN这项专门针对该类市场的技术设计方案实现性能保障与任务流加速。在部分情况下,NetApp公司在高性能计算领域拥有极具竞争力的价格优势,并能够借此牢牢把握一部分市场份额。”
DDN在澳大利亚国内拥有良好的推广态势——其借100PB RSI存储云斩获了相当可观的订单数量。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。