如果客户选择转投阵营,则可享受相当诱人的双倍许可协议。
Nutanix公司希望对于HPE收购SimpliVity一事有所不满的客户转投自家阵营,并给出了颇具吸引力的拉拢条件。
该公司首席营销官Howard Ting表示,HPE方面正在着手收购SimpliVity,并决定不再为非HPE硬件提供SimpliVity方案。这意味着相当一部分原SimpliVity客户被迫购买新硬件以继续使用相关产品。
在其它供应商的x86服务器硬件产品之上使用SimpliVity软件“看起来已经不可能,这将影响到思科及联想等厂商的客户”,Ting解释称。而如果这部分客户愿意由SimpliVity转投Nutanix阵营(即将全部SimpliVity软件节点切换为Nutanix),则Nutanix公司能够为SimpliVity思科UCS客户提供一套二合一许可协议,意味着客户能够直接获得双倍Nutanix节点许可。
他同时补充称,“我们正在努力制定迁移规划”以帮助使用戴尔及联想硬件的SimpliVity客户。
另外还有更激动人心的消息:“对于规模较大的客户,我们可能会提供更可观的财务奖励并考虑面向不同用例分别计算优惠。”
他宣称,Nutanix公司发现客户对其全栈方案正表现出愈发高涨的热情,因为Nutanix产品正是除VMware堆栈之外各超融合型基础设施设备(简称HCIA)供应商所使用的惟一替代性方案。Nutanix公司将进一步扩展其软件定义网络功能,旨在进一步拥抱网络细分市场并强化自身安全产品。另外,其对于构建网络硬件设备毫无兴趣。
该公司希望能够进一步实现“堆栈提升”,同时提供应用编排与混合云管理方案。在Ting看来,这无疑代表着新的业务发展空间。在整体式应用程序中使用此类软件的原有用户已经无法适应以虚拟机为基础的新世界,并被迫开始考虑选择容器与微服务技术方案。
VMware公司在这一领域同样拥有资产,特别是配合AWS进行发布。不过在他看来,目前市场仍有巨大发展空间。微软公司亦掌握着自有Azure Stack,但他认为思科与HPE还缺乏能够与之对应的解决方案。“由于从业厂商还不是很多,这一市场基本上仍然处于绿地阶段,今年年内我们会看到更多相关举措。”
NetApp公司即将推出其基于SolidFire的产品,但考虑到这仅是初代版本,在功能性上可能较为有限。
在被问及Nutanix公司是否有意提供云服务时,Ting表示该公司的Calm项目专注于混合型系统的管理与编排。目前虽然有一部分欧洲互联网服务供应商在其云环境中运行Nutanix软件,但Nutanix尚未能够在AWS、Azure或者谷歌这三大云巨头中打开局面。“我们就此开展了多次对话,但目前还无法公布具体内容。”
在硬件方面,Ting表示:“我们将尽快将全闪存硬件引入市场”,而且Nutanix公司正在高度关注NVMe SSD使用情况并探索3D XPoint的使用可能性——但“目前其性能水平仍未正式确定”。
Nutanix公司亦致力于集成Rubrik软件,并对其系统进行基于机器学习的自动化扩展,旨在实现工作负载SLA。举例来说,新方案中将可添加假设功能。“我们生活在预测性经济体系当中。我们希望基础设施能够拥有更理想的运行与预测效果。”
另外,Nutanix方面还希望SimpliVity客户能够积极加入Nutanix阵营,并享受由其带来的包括VMware替代性方案在内的各类资产积累。这主要是因为VMware及其堆栈目前已经成为Nutanix最重要的竞争关注点,而非其它HCIA设备厂商。总而言之,Nutanix正在快速而坚定地迈入全栈市场。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。