第三季度,NetApp在如股票补偿等某些特定成本之前利润为每股1.20美元,此前华尔街分析师预期的是每股1.15美元。
但是NetApp未能达到收入预期。该季度NetApp的销售额为15.6亿美元,低于预期的16亿美元。此外,接下来的第四季度指引也不尽如人意,NetApp预计未来三个月的收入将在15.9亿美元至16.9亿美元之间,低于华尔街预期的17亿美元。
NetApp股票在盘后交易时段迅速下挫6%多。
Moor Insights&Strategy分析师Steve McDowell表示,NetApp投资者们主要担心的是,在上一季度整体增长超过19%的存储市场中,NetApp似乎正朝着错误的方向发展。
“该季度NetApp的产品收入增幅同比下降至9%左右,指引下滑至5%,”McDowell表示。“NetApp的增长速度低于市场整体水平。”
NetApp的问题与其技术无关,McDowell表示,NetApp的技术“非常令人印象深刻。”但是,NetApp正在被关注范围更广的竞争对手所超越,其中包括Dell Technologies、HPE和IBM。
McDowell说:“Dell EMC、HPE甚至是IBM都在利用其整体解决方案销售来达成交易,这对他们来说效果很好。NetApp没有服务器业务,这一点限制了它的影响力。”
NetApp试图通过与联想合作来解决这一问题。联想是最大的服务器制造商之一,尤其是在中国市场。但McDowell说,双方的关系仍处于萌芽期,因此未来几个季度可能不会看到多少成果。
NetApp首席执行官George Kurian在电话会议上表示,令人失望的收入增长是“宏观经济不确定性”的结果,部分归咎于上个月美国联邦政府的停摆。
他说:“我们看到,我们最大的客户在1月减少了采购量。我们看到了经济的不确定性。但我们对各种变化因素的控制执行得很好。”
NetApp一直在努力从依赖硬件销售,到更新的、软件定义的网络和存储产品。例如,NetApp Data Fabric产品旨在简化和集成云和本地环境中的数据管理。
Kurian表示,至少在这方面NetApp表现得不错。在电话会议期间,他强调了NetApp混合存储和云存储软件产品以及全闪存阵列的强劲业绩。他表示,NetApp决定将其存储软件扩展到公有云——特别是谷歌和微软——对于客户来说是一个关键卖点。
Constellation Research分析师Holger Mueller表示,NetApp的软件定义存储产品组合让他感到鼓舞,但同时表示,NetApp需要重振这些产品,并展示出比目前更高的增长率。“NetApp能够做到这一点,因为它的产品很强大,但也要看在进入市场方面的执行力。”
对于NetApp来说,这并不是它面临的唯一挑战。NetApp还需要加强全闪存产品的销售,这不是一件容易的事。
McDowell说:“我怀疑目前NetApp在全闪存阵列市场的大部分增长仅仅是面向现有客户的销售,他们早就应该升级更新了。”
McDowell不是唯一一个对NetApp前景表示担忧的分析师。Enderle Group的Rob Enderle表示,他个人很悲观,因为整个存储都变成了亏本销售,Dell、HPE和IBM都设法将NetApp排除在外。他还表示,VMware vSAN超融合软件定义存储产品由于承诺彻底消除存储管理员,所以也对存储系统的需求产生了负面影响。
他说:“NetApp无法改变这种情况,我担心,这会让它的处境更加艰难。NetApp体量不够大或者不够强大,而且我认为他们也没有完全意识到这一风险,以走出困境。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。