2020年4月22日,北京——今日,Hitachi Vantara宣布推出虚拟存储平台Hitachi Virtual Storage Platform(VSP)的最新产品VSP E990,这是一款面向中型企业客户的新一代企业级存储平台。
Hitachi Vantara数字基础架构总裁Brian Householder表示:“几十年以来,Hitachi Vantara凭借经过实践检验的、高可靠的数据解决方案在行业中一直处于领先地位。久经验证的Hitachi Vantara 以100%的数据可用性保障支撑解决方案的性能、可用性和可扩展性。配备Hitachi Ops Center的全新一代VSP E990完善了我们面向中型企业级用户的产品组合,不断推动AIOps更有效地服务于我们的用户,进而让这些用户更智能地服务于他们自己的客户。”
业界领先的数据缩减能力可有效降低存储成本
新推出的Hitachi VSP E990搭配Hitachi Ops Center,实现了业界领先的4:1数据缩减,数据精简比是最接近VSP E990的同类产品的两倍,将帮助用户释放高达75%的存储容量。
由AI强化的管理工具极大简化存储配置
配备Hitachi Ops Center的VSP E990便可帮助用户直面应对这一挑战。Hitachi Ops Center具备AI增强的管理功能,可帮助要求严苛的应用程序将存储效率提升多至90%。此外,它还可以将需要手动配置的存储任务减少70%,将故障根本原因分析的速度提高四倍,从而显著加快故障排查速度。
性能可信赖,费用可负担
VSP E990以中型企业可承受的价格为其提供极高的可靠性——Hitachi Vantara存储系统的高可靠性已经过市场的长期检验。VSP E990采用全NVMe架构,可提供业界领先且成本最低的IOPS(每IOPS成本低至0.03美元),同时可为消耗大量资源的业务应用程序提供超低延迟的服务。
全新VSP E990的高性能和低延迟特性,能够极大地提高业务应用程序性能,其行业领先的数据缩减能力可确保用户降低存储成本。Hitachi Ops Center强大的管理软件由人工智能驱动,能极大简化人工智能(AI)、机器学习(ML)和容器化应用程序的存储配置。Hitachi Vantara拥有广泛且性能强大的基础架构解决方案组合,VSP E990作为该组合的新成员配备了Hitachi Ops Center,为面向中型企业级用户的Hitachi Vantara系列解决方案提供了NVMe全闪存方案。这些基础架构解决方案拥有创纪录的性能表现,且能为所有规模的用户提供Hitachi Vantara一贯承诺的100%数据可用性保障。
IDC企业级基础架构系统、平台和技术研究副总裁Eric Burgener表示:“通过推出VSP E990存储系统,Hitachi Vantara将中端存储的性能提升到全新的水平。VSP E990是一款既支持存储级内存(SCM),又支持NVME-oF的全闪存NVMe系统,性能可扩展至近600万IOPS,有效容量超过16PB,并可通过压缩和数据缩减技术提供‘毫无争议的’4:1数据精减比,同时确保100%的数据可用性。对于需要为关键任务工作负载提供更多存储空间的中型企业而言,他们应该清晰认识到Hitachi VSP E990可以为他们带来的价值。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。