富士通放出消息,宣称大家不必再出于性能考量而购买特殊的全闪存系统——该公司的全闪存中端DX200阵列既价廉又物美,足以满足需求。
富士通表示“与基于特殊架构的昂贵全闪存阵列不同,这款富士通Eternus DX200 S3采用的是高性能标准系统架构,能够将系统购置成本削减高达八成。”
DX200 S3的全闪存版本配备3.6TB NAND,能够实现200500.95 SPC-1 IOPS,其满负载工作状态下的响应时间约为0.63毫秒——根据富士通的说法,这是SPC-1基准测试历史上最出色的满负载响应时间数字。
SPC-1基准测试的目的在于“模拟关键性业务应用程序所涉及的大量复杂事务处理流程。联机事务处理(简称OLTP)、数据库操作以及邮件系统等伪操作型工作负载会被重新创建以确保随机访问读取/写入性能。”
下面这份图表显示的是全闪存DX200 S3在SPC-1基准测试系统中的IOPS排名情况:
富士通Eternus DX200 S3全闪存版本在SPC-1基准测试中的IOPS成绩
我们从中能够得出怎样的结论?DX200 S3的速度比Eternus DX400系统更快,虽然后者曾经被定位成更高级别的Eternus阵列产品。DX400后来被于去年十一月份推出的DX500系统所取代,与之同期发布的还有DX200以及其它S3版本产品。通过以下图表,我们能够了解此后富士通Eternus产品家族的定位情况:
其次,中端DX200在基准测试中的成绩超过了IBM V7000以及NetApp FAS8040双节点集群,并与惠普3PAR T800以及六节点NetApp FAS6240集群保持在同一级别当中。不过惠普与NetApp的这两款方案都属于上代产品。看了这份成绩单,我们不禁对富士通接下来将要推出的大型DX500以及DX600的全闪存版本充满期待。
在这份SPC-1测试成绩单中,没有出现富士通所说的价格极为高昂的特殊架构全闪存阵列——我们认为这里指的是由Pure Storage、SolidFire、Nimbus Data或者Violin打造的对应阵列产品。我们暂时无法从SPC-1测试的角度将它们与DX200 S3进行比较,因为它们都没有公开其SPC-1成绩——这实在有些遗憾。另外,我们也无法将DX200与EMC的XtremIO或者思科的Invicta作出比对,理由也是一样。
再有,我们也不知道DX200的全磁盘版本到底性能如何,这不得不说是另一大遗憾。就目前来看,全闪存DX200表现突出、状态良好,如果大家希望购买一套速度拔群而且易于安装的全闪存系统,这就是富士通给出的答案。
顺带一提,我们了解到NetApp也计划推出一款全闪存FAS阵列,相信到实际发布时双方一定又会引发激烈的对抗。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。