DataDirect Networks公司已经对其旗舰产品SFA12K阵列的性能表现进行了大幅提升,而在高达三倍的IOPS性能增长之下,升级后的SFA14K这一名称也显得相当具有说服力。
DDN方面强调称:"SFA14K的出现将为客户提供每秒60 GB传输能力与600万IOPS,且物理尺寸仅为4U,其已经成为最近十年当中性能提升最为可观的大规模存储解决方案。"
听到了没有,说你呢Infinidat!
根据该公司的说法,那些采用商用硬件配合纯软件存储产品的方案虽然能够满足多种通用型需求,但对于真正的数据敏感型使用者、特别是高性能计算客户来讲,他们真正需要的仍然是能够将硬件与软件加以整合,从而在整体设计上提供更强性能水平--或者说性能远超商用硬件加纯软件组合的产品。
这款SFA14K块存储阵列与前代产品一样采用4U机柜,不过其三大主要性能指标皆实现了显著提升:
更为强劲的处理器成为性能提升的一大助手,而速度更快的SSD与互连机制也在其中起到了相当重要的作用。
SFA14K配备两套主动:主动控制器,DRAM内存容量高达2 TB,同时配合至强E5 v3 CPU。SFA14K拥有48个PCIe NVMe SSD插槽外加24个12 Gb每秒SAS SSD接口;这意味着其能够最多容纳72块闪存驱动器。整套阵列拥有三个IO缓存层:DRAM是其中速度最快的缓存层(延迟水平为0.2毫秒),接下来是NVMe PCIe SSD(延迟水平为0.4毫秒),最后则为SAS SSD(延迟水平为0.8毫秒)。DDN公司宣称,单独一台4U SFA14K阵列在性能表现方面已经能够等同于存储及控制器总计需占据1.5至2机柜空间的市场同类系统。
根据DDN公司SFA14K产品手册所言:"凭借着单一4U设备所实现的600万IOPS与每秒60 GB数据传输能力,SFA14K已经成为目前业界之内速度最快的存储解决方案。"
相较于此前的SFA12KE/SFA12KXE等在阵列之内运行嵌入式文件系统的型号,SFA14K还拥有更为强大的阵列内处理能力。
目前这一全新解决方案拥有两款型号:SFA14K与SFA14KE,二者皆能够在阵列之内运行应用程序、虚拟机、嵌入式应用以及文件系统等等。DDN公司将其称为超融合型设备,并宣称其"是当下世界上速度最快的超融合型存储方案"。
它们与前代以及再上一代方案一样皆为4U尺寸设计,而SFA14K新增添了能够混合使用磁盘与固态存储驱动器的能力。不过其只能支持小尺寸磁盘,即2.5英寸驱动器,每台4U设备机柜能够容纳72块驱动器。其中的SSD采用的是由东芝公司提供的3.84 TB产品。
SFA14K能够接入最多11个84插槽SS8462与SS8412扩展机柜,这两种机柜同样为4U尺寸且同时支持3.5英寸及2.5英寸近线SAS磁盘驱动器或者SSD。
这意味着一台机架能够容纳912块驱动器,而44机架单元所提供的总体存储容量可达7.01 PB。
DDN公司宣称,SFA14K"能够通过统一的解决方案对小型、大型以及混合型IO工作负载进行加速,而这些任务在以往需要由面向小型文件的专用SSD阵列以及向外扩展系统分别实现。"
这款阵列采用NVMe SSD、PCIe 3、EDR InfiniBand以及Omni-Path等技术,而正是这一切才让其性能达到了前面提到的新高度。SFA14K提供32 Gb每秒光纤通道以及100 Gb每秒以太网主机连接选项,同时具备一套嵌入式600+通道PCIe第三代结构。DDN公司指出,这样的设计使其得以从向上以及向外两个层面实现规模扩展。另外,将有24个四路12 Gb每秒SAS接口负责与外部扩展相对接。
根据DDN方面的说法,在一切准备就绪之后,SFA14K还将能够利用Controller Grid Fabric Interconnect实现集群化。
作为参考,以下为SFA12K家族各型号具体规格:
下面再来看SFA14K规格参数表:
DDN公司还拿出了一份性能对照图表,我们可以从中看到SFA14K在IOPS方面彻底压倒了Pure Storage以及XtremIO,而在传输带宽方面则远优于NetApp的EF550与XtremIO:
感兴趣的朋友可以点击此处查看DDN公司官方网站上的SFA14K介绍文档。根据我们的预计,未来还将有更多原本搭配SFA12K的DDN产品通过向SFA14K升级实现性能提升。而且尽管目前SFA14K混合块存储产品与SFA14KE超融合型存储产品都已经正式开始发售,但我们尚不清楚二者的具体售价信息。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。