Hitachi Vantara利用Skylake处理器升级了更多服务器,并增加支持Optane SSD缓存和Nvidia GPU。
Vantara有基础的统一计算平台(UCP)服务器、DS(nnn)型号,然后针对V(nnn)型号的VMware环境进行了优化。这些V(nnn)型号可用于超融合(HC)和机架式(RS)产品系列:
这些都是1U或2U机箱中的单节点系统。“F”后缀代表是全闪存服务器;其他则是闪存/磁盘的混合式设计。“G”后缀代表是利用Nvidia GPU加速的系统。DS220和DS240服务器则用于融合基础设施(CI)产品组合中:
V123F(DS120基础)采用375GB Optane 3D XPoint P4800X缓存驱动器。
这是Hitachi V的第二波Skylake服务器。去年8月日立发布了第一台Skylake RS和HC服务器,其中有4款V(nnn)型号:
- V120F全闪存 - 1U单节点
- V210混合 - 2U 1节点
- V210F全闪存 - 2U单节点
- V240F全闪存 - 2U 4节点
最新公告中使用的产品名称是V120F。
这款超融合系统使用vSan和RS系统支持VMware Cloud Foundation。Hitachi Vantara的CI系统包括最新的VSP存储、UCP Advisor、DS220和DS240服务器。
以前Hitachi Vantara V拥有一个CB600刀片服务器产品线,6U机箱中有8个刀片服务器。最新公告中没有提及Skylake刀片服务器或磁带服务器。
现有的UCP Advisor管理和编排软件支持这些新的服务器。
其特点是针对SAP HANA进行了配置,数据湖中有一个运行在RS服务器上的MongoDB群集。有针对Cloudera和MongoDB的参考架构,带有针对Cloudera Enterprise Data Hub和MongoDB Enterprise的预测试、预验证基础架构,此外还集成了Pentaho Data [分析]。
这些新的UCP服务器、系统和应用产品预计将于8月份上市。
根据IDC的说法,Hitachi Vantara有了这些新型号,尤其是Optane缓存和Nvidia GPU的新型号,它将收回一些失地。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。