数据保护和管理软件开发商Veeam本周宣布扩大了渠道合作伙伴计划,改进了合作伙伴通过销售Veeam技术赚取收入的方式,并改进了培训和证书。
Larissa Crandall表示,渠道合作伙伴计划的变化与Veeam渠道合作伙伴向企业传达的信息是一致的。Larissa Crandall去年刚刚加入Veeam,担任这家总部位于美国俄亥俄州哥伦布市的公司的全球渠道和联盟副总裁。
Crandall表示,Veeam将围绕盈利能力提供更可预测的计划,并提供一个全球框架和结构,其中包括了围绕交易注册和代理进行改进。
她说,Veeam扩大了培训和支持计划,以及提供新的能力和认证,以显示对网络弹性的重视。
“市场的演变以及合作伙伴生态系统中发生的所有变化需要我们采取新的方法和更新,”她说。
Crandall表示,首先,Veeam正在改善合作伙伴通过交易注册获得的前端利润。她表示,交易登记量正在增加,但拒绝透露具体数量。
“这是为了更具竞争力。我们正在投资前端,改变整个产品组合后端结构的一些内容。但今天的情况并非如此。”
Crandall表示,Veeam还在改变其代理计划,以便在合同需要续签时,原来的合作伙伴可以维持关系。
她说:“他们为我们带来了机会,当需要续约时,我们改善了代理情况。所以我们在前端和后端都提供了保护。坦率地说,这是不一致的。我们有三个不同的合作伙伴计划。现在我们有一个全球计划,但仍然关注地区差异。不过,我们添加了一个全球框架,以提供更严格、更好、更一致的框架。”
American Digital是一家位于美国伊利诺伊州埃尔克格罗夫村的解决方案提供商,该公司销售和服务副总裁Bob Panos表示,扩大现有规模和交易注册是Veeam的一项关键举措,该公司已经和Veeam合作了超过10年时间。
Panos表示:“获取客户需要时间和资源,Veeam现在让我们在建立关系后更容易留住客户,而不是让其他厂商趁机抢走他们。在保护现有客户方面,一些公司往往比其他公司做得更好,这并不常见,但这是一件很棒的事情。”
Crandall表示,Veeam渠道计划的另一个重大变化是围绕企业日益关注的网络弹性增加了新的技术和销售培训,包括帮助合作伙伴了解如何在和客户的讨论中融入有关Veeam安全的因素。
她说,该公司还将这些培训扩展到云和Kubernetes等技术。
“Veeam长期以来一直在打造令人难以置信的产品,合作伙伴问的是,‘我如何让Veeam参与有关安全的对话?我们知道你适合。你需要对我们进行更多的培训。你如何与超大规模企业保持一致?你如何将自己纳入备份即服务解决方案或Kubernetes中。’因此,所有这些都将进行更新,增加更多的用例和业务成果方法。”
Crandall表示,Veeam还在努力扩大到全球系统集成领域以及和MSP的合作。
“你会看到我们将继续推出更多的安全合作伙伴关系、超大规模合作伙伴关系和存储合作伙伴关系,然后真正地围绕GSI(全球系统集成商)方面进军企业领域。Veeam在全球拥有35000家合作伙伴,并且长期拥有忠实的合作伙伴。随着市场的变化,客户的购买方式也发生了变化,这让我们有机会花更多时间与GSI、MSP和不同合作伙伴进行交流。”
Crandall表示,Veeam非常关注企业,发布的Veeam Backup & Recovery v12让Veeam在安全性和规模方面带来了很多新的企业机会。
她表示,Veeam今年将继续扩大网络弹性能力,签署几项新的大型安全合作伙伴关系,类似在10月和Sophos签署的合作伙伴关系。
Panos表示,事实证明,Veeam是American Digital的优秀合作伙伴。
“Veeam一直希望通过教育我们的销售团队来和我们一起投资,我们与他们的高管团队有着紧密的合作伙伴关系,这是跨越整个组织的合作伙伴关系。”
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。