大兆极存(Bigtera)今日发布了全新版本的超融合基础架构(Hyper Converged Infrastructure; HCI)产品VirtualStor® ConvergerOne 1.3。VirtualStor ConvergerOne是一个整合运算、存储与网络资源的超融合平台,可提供弹性、敏捷的交付服务,有效突破传统三层式体系结构的资源扩展难、运维管理复杂等限制。最新版VirtualStor ConvergerOne 1.3多项强大新功能为独立软件开发商(ISV)提供更加安全、高效,且简单易用的运行平台,协助打造一站式解决方案,一次满足预算、人力、效能三大需求。
ISV运用超融合基础架构来开发软件已成为市场主流趋势。VirtualStor ConvergerOne 1.3可协助ISV立即部署AI或其他应用程序,使其能更专注在平台与应用层面的发展,此外,在不影响系统运作前提下,能按需扩展计算与存储资源能力。大兆极存正积极寻找更多优秀且具未来发展性的ISV,目前已与多家合作伙伴洽谈共推一站式解决方案,包括和AI业界拥有高知名度软件公司打造AI-Stack一站式解决方案,能降低中小企业跨入AI的门坎。

VirtualStor ConvergerOne 1.3无论在数据保护、虚拟机管理等方面,皆提供良好的运作机制,甚至可为超融合架构外部的前端系统提供NAS或SAN服务,便于企业汰除老旧存储设备,确保所有前端应用皆享有更高的I/O存取效能;另外还能整合AI平台,满足数据分析、图像处理等热门需求。除了ISV,有虚拟化、VDI、大数据分析等作业需求的企业,都适合部署VirtualStor ConvergerOne 1.3,借此打造极简、安全、高效的数字化基础架构。
新版的VirtualStor ConvergerOne 1.3拥有六大创新亮点:
■ 优异的效能表现:经由大兆极存以最小集群运行9个虚拟机进行实测,显示VirtualStor ConvergerOne的随机读取效能可达23万IOPS、随机写入效能可达8万IOPS,表现极为突出。
■ 提供批次复制功能:短短2~3秒内即能复制10个或20个以上虚拟机,且批次产生IP地址与网络名称、以避免虚拟机彼此冲突,可满足VDI、研发测试等多人同时应用的情境,同时藉由Linked Clone技术节省95%以上的复制空间。
■ 可将存储资源池提供予外部使用:大兆极存活用软件定义存储(SDS)技术,使得VirtualStor ConvergerOne 1.3的存储资源池不仅能为超融合架构环境内部的虚拟机所用,也可进一步为外部的前端系统提供NAS或SAN服务,让企业可顺道替换老旧存储系统。
■ 完整的系统保护:可透过集群方式,保障实体机、虚拟机与虚拟化存储的高可用性。假设某节点出状况,系统会立即将其承载的服务进行迁移,由相关虚拟机重新转向新节点来继续运作;支持节点自我修复功能,当节点硬件修复后要重新加入集群时,系统会自动执行数据同步与负载平衡配置,完成后将它加入集群,用户可选择是否将虚拟机迁移回来。
■ 支持虚拟机快照:藉由快照功能,备份当下虚拟机运行状态、以及内存里的数据,让用户日后能完整回复当时状态。执行虚拟机快照时,会将原虚拟机数据转为Read Only状态、无法再写入,并以COW(Copy-on-Write)方式产生新的数据块,因此即使此数据区块遭人为破坏(例如被勒索病毒加密),用户亦可切换回上次快照数据,确保营运服务持续运行。
■ 简单易用:一般IT人员即可透过统一的Web UI接口执行系统管理与资源监控,完全不需要手动输入复杂命令或脚本;举凡新增与设定虚拟机或HA配置、共享文件夹、资源群组或存储池,乃至于利用图形接口监控集群、主机节点、存储池、虚拟机的资源管理与监控,都能轻松上手。
VirtualStor ConvergerOne 1.3主要特色如下:
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。