虽然还没有恢复到2015财年辉煌时期的水平,但是NetApp表示,自己的全闪存阵列销售十分火爆,预计还会有增长的空间。
在2018财年第二季度,NetApp收入为14.2亿美元,同比增长6%,环比增长6.7%,超出了此前华尔街预期的13.8亿美元。
该季度NetApp的利润(GAAP)为1.75亿美元,相比去年同期的1.09亿美元同比增长了60.6%,环比增长了28.7%。NetApp有60美元现金和等值资金,并从运营中获得了3.14亿美元现金,去年同期为1.58亿美元。
NetApp表示,全闪存阵列的年运营率现在达到了17亿美元,同比增长58%。装机群中有10%是采用了全闪存阵列,这样未来会有大量潜在的销售机会。
富国银行(Wells Fargo)分析师Aaron Rakers指出:“NetApp在激烈的竞争(主要面对IBM、日立、Dell/EMC)中取得了强劲的增长势头,特别是该季度每天都会发生2个竞争对手的替代(2017年5月那个季度是每天有1个)。”
在财报电话会议中,NetApp公司首席执行官George Kurian表示:“毫无疑问我们在各种面都展开了竞争。”
他提到了OEM方面的机会:“从7模式向集群式ONTAP的转变已经完成。我们的附加硬件业务正在增长,我们将重点重新放在硬件和软件OEM的机会上。”
NetApp下个季度的收入预计在114.25亿美元到15.75亿美元之间,中间点是15亿美元,这意味着同比增长7%。NetApp公司首席财务官Ron Pasek表示:“我们预计长期业务的收入增幅在低个位数的水平。”
展望未来,Kurian表示:“我们将提高下半年的收入指南。”
以现在的增长速度,想要重新达到2015财年的水平还有一段距离,有可能会在2019财年实现。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。