VMware公司已经发布其虚拟存储区域网络(简称VSAN)的新一轮beta测试版本。
虚拟巨头存储与可用性首席技术员Duncan Epping在博文中指出,VMware公司“正高度关注以下三项功能的相关反馈意见”:
• 软件闲置数据加密功能
• 面向双层延伸集群保护的跨站点与本地嵌套故障域(Nested Fault Domains,简称FD)功能
• 新的运营管理增强(vRA集成、vCenter提供的运行状态检查以及监控网络状态等等)功能
第一点很好判断:加密机制基本上不会是什么坏事,尽管其会给阵列带来一部分额外的运作负担。但考虑到VSAN运行所在的服务器至少拥有六个计算核心(在全闪存方面,VMware的建议配置为2 x 10核心CPU),设备内部应该具备完成这类工作的必要资源。另外,硬件SAN多年来一直拥有闲置数据加密能力。因此VSAN这次升级算是缩小了差距。
嵌套故障域将使得VSAN在广域配置场景中更具可靠性。正如Epping所言,这项功能“……允许大家同时在单一站点内与多个站点之间立足延伸集群实现数据保护。换句话来说:RAID-1跨站,而后再在单一站点内建立RAID-1、5或者6。”这项功能最为直观的用例就是在多站点或者灾难恢复场景下使用VSAN。
关于最后一点,Epping提到其基本上属于同VMware管理套件间的更深层集成。考虑到虚拟巨头一直希望大家全面接纳其Cloud Foundation,即将VSAN、vSphere、NSX以及vRealize Automation加以结合,此次发布的新功能自然也在意料之中。
Epping的博文同时提到,这一beta测试版还将迎来“一系列增强”。
而且根据VMware公司以往beta测试版本的操作习惯,测试客户们的意见至少还需要数个月时间才能在下一次版本升级中得到体现。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。