大兆极存(Bigtera)今日发布了全新版本的超融合基础架构(Hyper Converged Infrastructure; HCI)产品VirtualStor® ConvergerOne 1.3。VirtualStor ConvergerOne是一个整合运算、存储与网络资源的超融合平台,可提供弹性、敏捷的交付服务,有效突破传统三层式体系结构的资源扩展难、运维管理复杂等限制。最新版VirtualStor ConvergerOne 1.3多项强大新功能为独立软件开发商(ISV)提供更加安全、高效,且简单易用的运行平台,协助打造一站式解决方案,一次满足预算、人力、效能三大需求。
ISV运用超融合基础架构来开发软件已成为市场主流趋势。VirtualStor ConvergerOne 1.3可协助ISV立即部署AI或其他应用程序,使其能更专注在平台与应用层面的发展,此外,在不影响系统运作前提下,能按需扩展计算与存储资源能力。大兆极存正积极寻找更多优秀且具未来发展性的ISV,目前已与多家合作伙伴洽谈共推一站式解决方案,包括和AI业界拥有高知名度软件公司打造AI-Stack一站式解决方案,能降低中小企业跨入AI的门坎。
VirtualStor ConvergerOne 1.3无论在数据保护、虚拟机管理等方面,皆提供良好的运作机制,甚至可为超融合架构外部的前端系统提供NAS或SAN服务,便于企业汰除老旧存储设备,确保所有前端应用皆享有更高的I/O存取效能;另外还能整合AI平台,满足数据分析、图像处理等热门需求。除了ISV,有虚拟化、VDI、大数据分析等作业需求的企业,都适合部署VirtualStor ConvergerOne 1.3,借此打造极简、安全、高效的数字化基础架构。
新版的VirtualStor ConvergerOne 1.3拥有六大创新亮点:
■ 优异的效能表现:经由大兆极存以最小集群运行9个虚拟机进行实测,显示VirtualStor ConvergerOne的随机读取效能可达23万IOPS、随机写入效能可达8万IOPS,表现极为突出。
■ 提供批次复制功能:短短2~3秒内即能复制10个或20个以上虚拟机,且批次产生IP地址与网络名称、以避免虚拟机彼此冲突,可满足VDI、研发测试等多人同时应用的情境,同时藉由Linked Clone技术节省95%以上的复制空间。
■ 可将存储资源池提供予外部使用:大兆极存活用软件定义存储(SDS)技术,使得VirtualStor ConvergerOne 1.3的存储资源池不仅能为超融合架构环境内部的虚拟机所用,也可进一步为外部的前端系统提供NAS或SAN服务,让企业可顺道替换老旧存储系统。
■ 完整的系统保护:可透过集群方式,保障实体机、虚拟机与虚拟化存储的高可用性。假设某节点出状况,系统会立即将其承载的服务进行迁移,由相关虚拟机重新转向新节点来继续运作;支持节点自我修复功能,当节点硬件修复后要重新加入集群时,系统会自动执行数据同步与负载平衡配置,完成后将它加入集群,用户可选择是否将虚拟机迁移回来。
■ 支持虚拟机快照:藉由快照功能,备份当下虚拟机运行状态、以及内存里的数据,让用户日后能完整回复当时状态。执行虚拟机快照时,会将原虚拟机数据转为Read Only状态、无法再写入,并以COW(Copy-on-Write)方式产生新的数据块,因此即使此数据区块遭人为破坏(例如被勒索病毒加密),用户亦可切换回上次快照数据,确保营运服务持续运行。
■ 简单易用:一般IT人员即可透过统一的Web UI接口执行系统管理与资源监控,完全不需要手动输入复杂命令或脚本;举凡新增与设定虚拟机或HA配置、共享文件夹、资源群组或存储池,乃至于利用图形接口监控集群、主机节点、存储池、虚拟机的资源管理与监控,都能轻松上手。
VirtualStor ConvergerOne 1.3主要特色如下:
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。