云服务提供商在 2024 年第四季度采购了更多大容量硬盘,推动 Seagate 营收增长近 50%。
Seagate 在 2025 财年第二季度(截至 12 月 27 日)的营收从去年同期的 15.5 亿美元增长至 23.3 亿美元。公司实现 GAAP 利润 3.36 亿美元,相比去年同期亏损 1900 万美元实现显著转折。然而,投资者对其下一季度的预期表现不太满意。据路透社报道,硬盘制造商预计第三季度营收约为 21 亿美元,低于分析师平均预期的 21.9 亿美元。
CEO Dave Mosley 表示:"Seagate 以强劲势头结束了 2024 年,全年各季度的营收、毛利率和非 GAAP 每股收益均实现连续增长。我们的业绩展示了业务结构的改善,以及在需求改善环境下注重价值获取的成果,12 月季度末的毛利率创下十年新高。"
"我们的业绩得益于几乎所有市场需求的增长,其中云计算领域增长最为显著。来自全球云客户的广泛需求使得 12 月季度的近线产品收入同比增长近一倍,全年近线收入增长接近 60%。"
"总的来说,Seagate 在需求增长的环境下,在竞争和技术方面都处于优势地位。"
公司的 24TB CMR 和 28TB SMR 硬盘产量快速增长,这两款产品代表了 Seagate 收入和容量最高的生产平台。
财务摘要: - 毛利率:34.9%,去年同期为 23.3% - 经营现金流:2.21 亿美元 - 自由现金流:1.5 亿美元,上季度为 2700 万美元 - 稀释每股收益:2.03 美元,去年同期为 0.12 美元 - 股息:每股 0.72 美元 - 现金及现金等价物:12.3 亿美元,去年同期为 7.87 亿美元
然而,公司遇到了影响非 HAMR 硬盘的生产问题,目前已经解决。这导致了即将到来的 3 月季度供应受限。CFO Gianluca Romano 在财报电话会议上表示:"由于我们没有及时补充必要的生产设备,在某个时期没有启动足够的材料生产。因此,我们没有足够的供应来满足 2025 财年第三季度的需求。"
随着其他市场领域低迷,大容量近线硬盘的占比继续上升。
Mosley 强调了 AI 驱动的未来:"我们预计生成式 AI 将推动未来大容量存储的增长。这一点在生成式 AI 模型创建的数据丰富的图像和视频内容方面尤为明显,预计从 2024 年到 2028 年将增长近 170 倍。"
硬盘之所以必要,是因为"在 AI 模型训练数据集不被 GPU 主动处理时,HDD 在存储这些海量数据集方面发挥着关键作用。这些大规模存储数据湖通过存储 AI 模型数据集的检查点或快照,确保数据能够保留并用于未来持续的模型改进,从而形成可信 AI 的基础。"
"随着 AI 计算和推理向数据生成源靠近,我们预计企业将在边缘本地复制和存储更多数据。视频监控和工业应用 (VIA) 是边缘计算的另一个充满机遇的市场。一段时间以来,我们一直在谈论 VIA 市场中 AI 分析的增加应用,这有助于从智慧城市和智能工厂等应用的数据中形成可行的洞察。"
HAMR 技术硬盘认证工作正在推进,Mosley 表示:"现在在每个大容量终端市场都有多个客户通过了该平台的认证。目前,我们正在为主要云服务提供商客户增加产量,同时推进其他云和超大规模客户的认证。这些认证将为 2025 年下半年开始的下一阶段 Mosaic 量产奠定基础。"
Seagate 计划依靠 HAMR 技术的面密度提升来增加容量,而无需在其十盘片产品中增加额外的盘片。竞争对手西部数据现在已有 11 盘片硬盘。
SSD 和 HDD 将共存。"数据中心架构师将继续采用硬盘存储和 NAND 闪存等面向计算的内存技术来支持其各种工作负载。NAND 最适合高吞吐量、低延迟任务,而硬盘仍是云中大规模数据存储的首选解决方案。"
Mosley 断言:"HDD 为客户提供的每 TB 存储成本至少低 6 倍。它们具有显著更小的内含碳足迹,并提供高度资本效率的制造规模。"
下一季度的展望预计环比收入下降至 21 亿美元(上下浮动 1.5 亿美元),以中点计算同比增长 26.9%。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。