超融合基础设施软件提供商Nutanix宣布,其最近一个季度的营收创下历史新高、连续第八年保持增长,并首次达到20亿美元的年化收入水平。
截至10月31日的上季度,该公司收入为5.111亿美元,同比增长18%,亏损额为1590万美元,大幅低于去年同期的9910万美元亏损。新增客户380家,累计客户达到24930家。此外,Nutanix还启动了股票回购计划以提振其股价。
Nutanix公司总裁兼CEO Rajiv Ramaswami表示,“我们第一季度的业绩表现强劲,结果也超出了我们的预期。第一季度充满不确定性的宏观背景基本没有好转。”
公司CFO Rukmini Sivaraman也补充道,“2024年第一季度的表现相当不错,我们的所有指标都超出了预期上限。第一季度追加与扩展销售(ACV)额为2.87亿美元,高于2.6至2.7亿美元的预期区间,同比增长达24%。”
凭借件8月售出的GPT-in-a-box一体式系统,Nutanix在美国联邦政府业务方面的表现也强于预期。此外,Nutanix与思科的合作也迎来良好开端,思科已决定取消自家HyperFlex HCI产品,转而代售Nutanix方案。Ramaswami表示,Nutanix“在这款新产品上取得胜利,吸引到了那些原本打算购买思科HyperFlex的客户。”
但他在财报电话会议上也保持了谨慎的态度:“我们的渠道需要六到九个月时间才能完成交接。所以预计今年之内,由思科引流的客户可能不会太多。”
尽管宏观环境与上个季度相比无甚变化,但Sivaraman表示“与去年同期相比,我们发现平均销售周期略有延长。”
财务摘要
Ramaswami希望“到2027财年,ARR复合年增长率能保持在20%左右,并在2027财年产生7到9亿美元的自由现金流。”
Nutanix 2024年第二财季的收入预期为5.5亿美元(上下浮动500万美元),年增长率预计为13.1%。目前全年预期营收为21.1亿美元(上下浮动1500万美元),比上年中位数增长13.3%。Sivaraman指出,“尽管宏观环境存在不确定性,但我们的解决方案仍然拥有新的扩展机会。”相应的,Nutanix已经上调了2024财年的所有预期指标,包括营收、ACV销售额、非GAAP营业利润率、非GAAP毛利率以及自由现金流等。
另一项利好消息,就是Red Hat OpenShift将运行在Nutanix之上。Ramaswami提到,Red Hat在应用业务层与VMware存在竞争关系,而Nutanix在基础设施层与VMware同样有所交集,所以Red Hat与Nutanix天然站在统一战线。部分Nutanix客户也在使用OpenShift,包括全球2000强银行。亚太地区的一家2000强银行就选择了Nutanix,希望借此避免VMware在加入博通后的业务不确定性。由此看来,Nutanix本季度的强劲业务表现也在一定程度上得益于这种不确定性。
但长远态势究竟是好是坏,目前还很难说。毕竟而且部分VMware客户也签署了长期协议,不得转投Nutanix的怀抱。
Ramaswami也在财报电话会议上提到了这一点,表示“在担忧情绪的推动下,我们获得了大量机会,能够与更多潜在客户接洽交流。但是,很难预测这种态势能不能长期保持下去。”
总体而言,VMware竞争力减弱与思科退出HCI市场给了Nutanix巨大的机会空间。只要能够妥善把握,相信Nutanix将在未来几个季度、甚至几年之内保持积极的业务增长幅度。
好文章,需要你的鼓励
上海交通大学研究团队开发出革命性AI癌症诊断系统,通过深度学习技术分析50万张细胞图像,实现94.2%的诊断准确率,诊断时间从30分钟缩短至2分钟。该系统不仅能识别多种癌症类型,还具备解释性功能,已在多家医院试点应用。研究成果发表于《Nature Communications》,展示了AI在精准医疗领域的巨大潜力。
南华理工大学等机构提出3DFlowAction方法,让机器人通过预测物体3D运动轨迹来学习操作技能。该研究创建了包含11万个实例的ManiFlow-110k数据集,构建了能预测三维光流的世界模型,实现了跨机器人平台的技能迁移。在四个复杂操作任务上成功率达70%,无需特定硬件训练即可在不同机器人上部署,为通用机器人操作技术发展开辟新路径。
这是首个系统性探索跨视角协作智能的综合性研究,由南京大学、东京大学等顶尖机构联合完成。研究团队首次将"第一人称视角"与"第三人称视角"的协作应用进行了全面梳理,提出了三大技术方向和十三个关键任务,涵盖从智能厨房到手术机器人的八大应用场景。这项突破性工作为人工智能向人类认知迈进提供了重要的技术路径和理论基础。
这项由台湾大学与微软研究团队合作的研究探索了使用音频感知大语言模型(ALLMs)作为自动评判员来评估语音生成模型的说话风格。研究设计了"语音风格指令跟随"和"角色扮演"两个任务,测试了四种语音模型的表现,并比较了人类与AI评判的一致性。结果表明,特别是Gemini-2.5-pro模型,其评判结果与人类评判的一致性甚至超过了人类评判者之间的一致性,证明ALLMs可以作为可靠的自动评估工具。同时研究也发现,即使是最先进的语音模型在说话风格控制方面仍有显著改进空间。