DataDirect Networks公司已经对其旗舰产品SFA12K阵列的性能表现进行了大幅提升,而在高达三倍的IOPS性能增长之下,升级后的SFA14K这一名称也显得相当具有说服力。
DDN方面强调称:"SFA14K的出现将为客户提供每秒60 GB传输能力与600万IOPS,且物理尺寸仅为4U,其已经成为最近十年当中性能提升最为可观的大规模存储解决方案。"
听到了没有,说你呢Infinidat!
根据该公司的说法,那些采用商用硬件配合纯软件存储产品的方案虽然能够满足多种通用型需求,但对于真正的数据敏感型使用者、特别是高性能计算客户来讲,他们真正需要的仍然是能够将硬件与软件加以整合,从而在整体设计上提供更强性能水平--或者说性能远超商用硬件加纯软件组合的产品。
这款SFA14K块存储阵列与前代产品一样采用4U机柜,不过其三大主要性能指标皆实现了显著提升:
更为强劲的处理器成为性能提升的一大助手,而速度更快的SSD与互连机制也在其中起到了相当重要的作用。
SFA14K配备两套主动:主动控制器,DRAM内存容量高达2 TB,同时配合至强E5 v3 CPU。SFA14K拥有48个PCIe NVMe SSD插槽外加24个12 Gb每秒SAS SSD接口;这意味着其能够最多容纳72块闪存驱动器。整套阵列拥有三个IO缓存层:DRAM是其中速度最快的缓存层(延迟水平为0.2毫秒),接下来是NVMe PCIe SSD(延迟水平为0.4毫秒),最后则为SAS SSD(延迟水平为0.8毫秒)。DDN公司宣称,单独一台4U SFA14K阵列在性能表现方面已经能够等同于存储及控制器总计需占据1.5至2机柜空间的市场同类系统。
根据DDN公司SFA14K产品手册所言:"凭借着单一4U设备所实现的600万IOPS与每秒60 GB数据传输能力,SFA14K已经成为目前业界之内速度最快的存储解决方案。"
相较于此前的SFA12KE/SFA12KXE等在阵列之内运行嵌入式文件系统的型号,SFA14K还拥有更为强大的阵列内处理能力。
目前这一全新解决方案拥有两款型号:SFA14K与SFA14KE,二者皆能够在阵列之内运行应用程序、虚拟机、嵌入式应用以及文件系统等等。DDN公司将其称为超融合型设备,并宣称其"是当下世界上速度最快的超融合型存储方案"。
它们与前代以及再上一代方案一样皆为4U尺寸设计,而SFA14K新增添了能够混合使用磁盘与固态存储驱动器的能力。不过其只能支持小尺寸磁盘,即2.5英寸驱动器,每台4U设备机柜能够容纳72块驱动器。其中的SSD采用的是由东芝公司提供的3.84 TB产品。
SFA14K能够接入最多11个84插槽SS8462与SS8412扩展机柜,这两种机柜同样为4U尺寸且同时支持3.5英寸及2.5英寸近线SAS磁盘驱动器或者SSD。
这意味着一台机架能够容纳912块驱动器,而44机架单元所提供的总体存储容量可达7.01 PB。
DDN公司宣称,SFA14K"能够通过统一的解决方案对小型、大型以及混合型IO工作负载进行加速,而这些任务在以往需要由面向小型文件的专用SSD阵列以及向外扩展系统分别实现。"
这款阵列采用NVMe SSD、PCIe 3、EDR InfiniBand以及Omni-Path等技术,而正是这一切才让其性能达到了前面提到的新高度。SFA14K提供32 Gb每秒光纤通道以及100 Gb每秒以太网主机连接选项,同时具备一套嵌入式600+通道PCIe第三代结构。DDN公司指出,这样的设计使其得以从向上以及向外两个层面实现规模扩展。另外,将有24个四路12 Gb每秒SAS接口负责与外部扩展相对接。
根据DDN方面的说法,在一切准备就绪之后,SFA14K还将能够利用Controller Grid Fabric Interconnect实现集群化。
作为参考,以下为SFA12K家族各型号具体规格:
下面再来看SFA14K规格参数表:
DDN公司还拿出了一份性能对照图表,我们可以从中看到SFA14K在IOPS方面彻底压倒了Pure Storage以及XtremIO,而在传输带宽方面则远优于NetApp的EF550与XtremIO:
感兴趣的朋友可以点击此处查看DDN公司官方网站上的SFA14K介绍文档。根据我们的预计,未来还将有更多原本搭配SFA12K的DDN产品通过向SFA14K升级实现性能提升。而且尽管目前SFA14K混合块存储产品与SFA14KE超融合型存储产品都已经正式开始发售,但我们尚不清楚二者的具体售价信息。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。