最近和宏杉科技的交流中获悉,他们花了几个月时间搞的SPC-1测试终于了有了结果,表现还不错。对于SPC-1测试,它反映了存储系统在执行关键业务应用时的性能表现,以随机I / O操作为主,可以为数据库、邮件关键业务应用存储系统选择提供测试参考依据。类似于服务器选型中的TPCC、SPEC测试,SPC-1也是金融、电信等高端行业用户选择存储系统时主要的参考依据。
性能表现的成绩单
据宏杉科技副总工冯杲介绍,此次宏杉科技参与SPC-1测试的机型是MS3000G2,这是一款中高端的产品,这个产品在2016年初发布,作为新一代产品,其性能相当于上一代的MS5000系列产品,属于高端产品中的入门级产品。
为什么宏杉科技没有选择最高端的MS7000AF或者MS7000AFT系列参与测试呢?对此,宏杉科技产品部部长汪振浩透露,MS7000的确有参与SPC-1测试的计划,但最先付诸实施的还是MS3000G2。
宏杉科技MS3000G2 SPC-1测试环境
此次进行SPC-1的MS3000G2,采用了4控制器的配置,每个控制器配备了64GB内存,总计256GB。4个控制器透过32个8Gb FC HBA和2台Dell PowerSdge R730测试服务器进行连接。在后端,每个引擎内部磁盘柜配备了4块600GB机械硬盘和6块480GB SSD盘;透过12Gb SAS和外部磁盘柜中18块 480GB SSD进行了连接。控制器之间透过8个万兆接口进行互连。
宏杉科技MS3000G2的SPC-1测试结果
从最终SPC-1的测试结果看,其IOPS的性能是43万IOPS,性价比表现为0.33美元/IOPS,其IOPS的时延为0.444ms,平均时延为0.297ms;存储系统容量10.4TB,每GB价格为13.11美元。
"这是一个让宏杉科技感觉很满意的测试结果。特别是每IOPS的成本是目前作为领先的,不到0.5ms的时延表现也是一个亮点。" 汪振浩说。
排名比较
43万IOPS、0.33美元/SPC-1IOPS是一个什么概念?在业界进行横向对比是一个什么水平?为此,我也查阅了SPC-1官方网站(http://www.storageperformance.org/results/results_spc1_v3/spc1_v3_top-ten)。
SPC-1测试排名
截至到发稿时间为止,参与SPC-1 V3版本以上测试的只有5款产品:华为OceanStor 6800 V3、华为OceanStor 18500V3、IBM DS888、IBM Storwize v5030和宏杉的MS3000G2。从性能排名来说,宏杉的MS3000G2不是最高的,排名在第4位,但作为一款中高端存储器,与友商最高端产品PK,应该说,这个成绩还不错。0.33美元/SPC-1IOPS的表现,让宏杉排名第一。
对于行业用户来说,如果MS3000G2的性能和容量可以满足需要,从性价比的角度,这将是最好的选择。在此需要注意的是,此次SPC-1测试还不是MS3000G2的顶级配置的表现,此次只采用了4个控制器,它可以通过横向扩展到16个控制器,也就是规模4倍的提升;另外,控制器的内存也可以从64GB提高到128GB。如此,相信MS3000G2会有更好的SPC-1测试表现。
为什么宏杉科技没有全力以赴追逐SPC-1测试排名?对此,宏杉科技方面没有进行更多的解释。但按照我的猜想,宏杉科技参加SPC-1测试并不是完全为了追逐排名,将目前市场最为常见的配置参与测试,一来可以为用户提供第三方数据依据;另外一方面,也是对自身产品技术实力的一次检阅。
对于SPC-1测试,需要注意的是它有V1、V3版本测试的区分。其中,V1版本测试排名第一的是DataCore的一款软件定义存储(SDS)的产品,性能秒杀传统高端磁盘阵列,以至于业界惊呼,DataCore玩坏了SPC-1测试。此后,SPC推出了新的V3版本的SPC-1测试,掀开了新的里程碑。但是只有5款产品参加测试,也在一定程度上说明了DataCore的破坏力。
小结
各种各样的奖项和排名是拉升产品销售的强有力的工具,我阅读的很多图书、观看的电影,很多都来自各种排名的推荐。IT产品也是如此,第三方测试方法和排名是系统选型可以参考的依据,对于金融、电信等高端行业用户而言,类似SPC-1这样测试就尤为重要。
主动参与SPC-1测试,这是宏杉科技市场发力的最有力的注解,这也是宏杉科技加快上市的最强力步伐之一,从创新CloudSAN发布再到SPC-1国际测试的推进,我看到的宏杉科技,是一个志向远大,充满了自信的民族企业,而这也是这个时代,中国存储最需要的突破的!加油!宏杉科技。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。