Veeam新近发布最新版本的Veeam数据平台(Veeam Data Platform),进一步扩大了对不同平台的支持力度,特别是为从VMware迁出的平台提供额外支持。
自从去年年底完成对VMware的收购以来,博通已经将其业务重点转向了大型客户。因此Veeam方面报告称,其中小企业客户正在考虑将Proxmox VE作为替代方案。Proxmox VE是一款开源服务器虚拟机与容器环境,其工具集包括用于备份客户虚拟机的vzdump,并可与Proxmox Backup Server集成以实现对备份的集中管理。
在Veeam数据平台v12.2中,Proxmox VE可提供完整的备份支持,且无需管理或使用备份代理即可保护虚拟机管理程序。用户还将获得灵活的恢复选项,包括从VMware、Hyper-V、Nutanix AHV、oVirt KVM、亚马逊云科技、Azure以及Google Cloud处实现虚拟机恢复。此外,用户亦可将物理服务器备份直接恢复至Proxmox VE,从而实现灾难恢复(DR)或者虚拟化/迁移的目标。
Proxmox Server Solutions公司CEO Martin Maurer表示,“我们认为Veeam对于Proxmox VE虚拟机管理程序的支持,对那些重视开源灵活性和成本效益的组织来说是一项宝贵的补充。其允许客户继续使用自己首选的单一平台实现数据备份一恢复,同时采用他们指定的首选虚拟机管理程序。”
James Westendorf
美国伊利诺伊州莱克兰学院技术服务总监James Westendorf评论称,“面对VMware近期的一系列变化,我们不得不重新评估到底该为数据中心选择哪种虚拟机管理程序——这很明显是个艰难的决定。Veeam仍然是我们的重要合作伙伴,我们也期待最终会选择迁移至Proxmox。”
在他看来,“使用Veeam提供的值得信赖的数据迁移工具,能够让我们在这个充满动荡的时期获得更好的可靠性和安全感。”
在v12.2当中,Veeam还“增强了”Nutanix AHV集成,以确保在不影响生产环境的前提下保护关键数据免受副本节点的影响。Veeam方面解释称,用户可以从Nutanix Prism及基于策略的备份作业间的“深度”集成、“增强的”备份安全性和网络设计的“灵活性”当中获益。
据我们了解,升级后的平台还为MongoDB提供备份支持,具体包括不可变备份、备份副本以及“高级”存储功能。
除此之外,新版本还扩展了对亚马逊云科技的支持,允许用户通过基于策略的保护及“自动快速恢复”将本机弹性扩展至Amazon FSx和Amazon Redshift。微软Azure同样迎来了广泛支持,包括面向Azure Cosmos DB和Azure Data Lake Storage Gen2的本机弹性选项,旨在实现“弹性保护与自动恢复”。
分析机构The Futurum Group研究主管Krista Case表示,“我们观察到客户正在评估各种各样的虚拟机管理程序和云基础设施选项,旨在优化成本和功能。也正因为如此,数据移动性比以往任何时候都更加重要。”
本月初,咨询分析企业Gartner将Veeam列为全球企业级备份和恢复软件市场的领导者,一举夺下Veritas的头把交椅。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。