NetApp创下第二季度收入纪录,但面对预期客户支出减少和整体经济形势萎缩等情况,公司仍决定削减成本。
截至10月28日,NetApp当季度收入为16.6亿美元,同比增长6%。季度利润为7.5亿美元,远高于上年同期的2.24亿美元。但这部分源自总额4.45亿美元的所得税返还。
公司CEO George Kurian表示,“我们在活跃的市场环境下实现了稳定的季度表现,第二季度收入、账面、毛利、营业收入和每股收益均创下历史新高……在充满挑战的宏观环境中,我们仍然专注于创新、行动和运营纪律。”
他也在发言中提出警告,“我们对云服务增长放缓感到失望。但我们仍抱有坚定不移的信念——把握云业务这一宝贵发展机遇,并贯彻执行下去。”
有迹象表明,客户的支出正在减少。为此,NetApp实施了广泛的招聘冻结、运营费用削减、自由支配部分支出的收缩、优化办公场地规模等等。公司还决定从低收益活动中抽离出资源,并投入到前景更光明的商业机会中去。
公司CFO Mike Berry表示,“我们将在2023财年的剩余时间内,继续暂停云运营方面的收购。”
正好借这段时间,NetApp公司打算好好整理之前买下的云运营资产。Berry表示,NetApp将“完善Cloud Insight的价值主张和销售方式,加快将Spot和CloudCheckr整合至单一finops套件当中,并通过整合加强我们的InstaClustr产品组合。”
他还补充道,Cloud Insights的交叉销售也将从2024年起被提上议程。
NetApp本季度的混合云业务收入为15.2亿美元,上年同期为14.8亿美元。公有云收入为1.42亿美元,上年同期为8700万美元。公有云年度经常性收入为6.03亿美元,虽然同比增长55%,但仍未达到NetApp的预期。
Kurian指出,“随着客户着力优化云支出,目前业务增长已经放缓、我们云存储服务的销售增速也开始下降。”他还特别提到“这主要是指那些项目工程量极大的客户,比如芯片设计。在这部分群体中,云支出优化已经成为普遍趋势。”
但另一方面,NetApp的云成本优化工具Spot则表现出色。“与第一季度相比,Spot在第二季度内的客户增速有所加快。”在Kurian看来,“我们的公有云服务体现出高度差异化,也为NetApp创造了新的客户粘性。在这个关键市场中,我们相较于几家传统竞争对手拥有多年优势,能够更好地保持稳定增长。”
具体来讲,“我们是VMware Cloud唯一认证且支持的第三方云存储解决方案,这为我们创造了重要的新机遇。随着更多VMware环境被迁移至云端,我们将承接更多原本存留在竞争对手本地系统上的数据。”
全闪存阵列收入增长2%,年化收入为31亿美元,与上年基本持平。在已售存储设备中,全闪存产品的渗透率目前为33%。
财务摘要
从前景来看,客户支出放缓已成定局。Kurian表示,“我们坚信光明就在前头,但随着近期宏观经济态势萎靡,我们也略微下调了本财年剩余期间的收入预期……随着本季度推进,我们发现预算审查有所增加、需要更高级别的批准后方可通过,因此交易规模变小、销售周期变长,部分交易甚至延后至下个季度。在第二季度,我们在美洲的高科技和服务提供商身上有了最为强烈的开支收缩感受。”
另外,前所未有的汇率冲击也已到来。
因此,NetApp预计下季度的收入在15.25亿美元至16.75亿美元之间,中间值为16亿美元,较上年同期的16.1亿美元减少1000万。
Kurian解释称,“目前的宏观经济低迷和前所未有的汇率冲击,正持续影响IT支出总量,导致我们调低了对下半年的收入预期。”从结论来看,NetApp预计2023年的全年收入将达到65亿美元,与2022年相比增长2%至4%。
从结果看,NetApp可以算是存储厂商中受影响最小的一家。面对经济衰退,希捷、美光、SK海力士等从NAND到磁盘驱动器厂商显然情况更为糟糕。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。