Veeam近日宣布在备份即服务市场推出几款新产品:Cirrus by Veeam for Microsoft 365以及Cirrus by Veeam for Microsoft Azure。
Veeam公司首席技术官Danny Allan围绕这次发布进行了预简报,并阐述了此举背后的原因。他表示,这次发布主要是为了让客户能够灵活地选择如何使用Veeam来保护他们的业务,无论是在云端、本地还是两者的组合。
他说:“我们看到消费偏好发生了重大的变化,如果你现在去拜访我们的客户就会发现,有超过50%的客户希望通过即服务型解决方案进行备份,尤其是他们的SaaS服务。”
Veeam从CT4那里收购了Cirrus,从而进入了这一市场。CT4在Veeam的数据备份和勒索软件恢复平台之上开发了这项云原生服务,因此此举也是自然而然的选择。
Allan表示,客户可以直接从Veeam那里购买这一新产品,Veeam还打算将其提供给Veeam云服务提供商以及VAR。随着Veeam完成后端系统的迁移,“Cirrus by Veeam”命名将在明年取消。
“Cirrus的技术完全是云原生的,是运行在Microsoft Azure Functions内的。Azure Functions在Azure SQL Server中写入元数据。这是一个完全多租户的云原生服务。我们所做的是收购了其背后的资产,以及运行Cirrus技术的团队。”
Cirrus为本地Veeam客户提供了三种选择:在云端部署、与服务提供商一起部署、或者以即服务的形式使用。让我们看看这些新产品都包含哪些内容。
Cirrus for Microsoft 365将企业本地的Veeam Backup for Microsoft 365(包括Outlook、OneDrive、SharePoint和Teams)转移到云端,并以即服务的形式进行交付。这项云服务中包含了可定制的备份、灵活的恢复选项以及强大的搜索功能。Veeam表示,该服务简化了Microsoft 365备份,并且是以单一价格捆绑销售的。有趣的是,Allan表示,这是Veeam发布的第一个日本本地化产品。
Cirrus Cloud Protect for Microsoft Azure则是一个完全托管且预配置的备份和恢复解决方案。Veeam称该方案实现价值的时间更短,因为它消除了实施、修补和修复错误配置等耗时的任务。此外,这个解决方案还利用针对Azure Well-Architected Framework构建的备份功能、安全性和FinOps最佳实践。Veeam表示,Cirrus Cloud Protect for Microsoft Azure还拥有可定制的恢复点目标和恢复到任何位置的特点。
Allan表示,Veeam仍然致力于支持Veeam云服务提供商。
他说:“对我们来说非常重要的一点是,我们的VCSP会继续陪伴着我们前进。当我们第一次让客户将备份发送到云端时,我们只允许他们将备份发送到我们的VCSP——我们称之为‘Cloud Connect’。接下来,在大约两三年前,我们添加了将其分层到超大规模公有云的功能,所有人都认为,‘哦,VCSP业务即将消失了。所有人都会将其发送到公有云’。”
Allan说事实并非如此。“仍然有数据进入我们的VCSP,还有一些数据进入AWS和Azure,我预计未来VCSP还将继续发挥非常重要的作用。”
Veeam表示,客户可以通过Azure Marketplace以及其他Veeam和Cirrus分销渠道购买Cirrus产品,而且Veeam很快将宣布进入更多的市场,并于2024年初推出带有Veeam标志的备份即服务产品。
Veeam目前拥有45万家客户,是全球顶级的数据保护和勒索软件恢复提供商,因此进军这一细分市场是非常合适的,很期待看到Veeam对Cirrus的整合结果,以及是否会提供针对Salesforce或者其他任何云服务提供备份服务。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。