作为2014财年的最后一个季度,西部数据的营收总额为37亿美元——尽管该公司售出的磁盘驱动器产品总量有所上升,但利润却反而出现缩水。与前两个季度相比,SSD产品的销量同样出现下降。
本季度驱动器产品需求增长主要源自PC主机、游戏设备以及笔记本,遗憾的是游戏机与笔记本驱动器产品的利润率相对较低。
本季度营收数字较上两个季度以及去年同期基本持平。3.17亿美元利润总值则略低于上季度的3.75亿美元,同时明显不及上年同期的4.16亿美元。事实上,令人沮丧的是西数公司本年度在利润方面一直属于持续萎缩态势:
我们真的不希望这样的状况继续持续下去。
本财年西数公司总营收为151亿美元,比上一年的153.5亿美元略有缩减。今年利润总额为16亿美元,同样略低于上年的16.6亿美元。
西数公司CEO兼董事长Stephen Milligan在财报会议上就企业级SSD销售下滑发表了更为详尽的解释,他指出:“在过去两个季度当中,我们逐步成为某家大客户的供货源之一。而该客户如今拥有更多可资选择的方案……因此我们认为目前的营收情况可以说是正常的。我们将——我们预计公司营收将在今年下半年逐步有所回升,而且这一趋势明显将持续到2015年年内。”
西数企业级SSD产品季度营收示意图
也就是说,一家客户就把整个西部数据糟蹋成这样?这已经是西数公司连续第二个季度遭遇SSD营收缩水。管理层必须有所行动来扭转这一不利局势。
关于6TB驱动器的讨论
Milligan谈到了西数公司旗下的两款6TB驱动器产品:西数自己的NAS红盘驱动器与HGST的氦气填充式磁盘。有传闻称6TB红盘属于叠瓦式驱动器方案,在就其平面存储密度问题作出解答时,他选择了一种更加迂回的表达方式:“目前公布的6TB产品中包含五张碟片,这显然说明其拥有业界领先的存储密度,面向的是NAS市场。需要强调的是,它并非面向企业级市场,而是专门为NAS市场所打造。”
我们与西数方面进行了沟通,询问对方该产品是否使用叠瓦式磁记录技术,最终得到了否定的答复。
再来看HGST的6TB氦气填充式驱动器,他表示这款产品专门面向企业级(请注意,并非中小型企业NAS)市场。它已经获得了广泛好评,也达到了西数为其定下的销售量预期。
他随后指出,这其实并不能算是一款“真正的”产品:“我们推出的这款6TB产品实际上,我更倾向于称其为技术展示方案。而且它确实不能算一款真正的产品。虽然不想承认,但我必须强调——从客户的角度看,我们希望能够拿出一套可以让使用者感到满意的示范性方案。”
“我们将继续推出采用氦气填充技术的更多后续产品,而且我们相信它们将在市场上拥有卓越的竞争优势,我们同样相信这些驱动器将在容量方面更上一层楼。因此6TB产品并非最终形态、也无法代表这项技术的潜力极限。”
PC升级滞后的行为惯性
他指出,西数发现PC主机驱动器需求提升的一大原因在于“其在商用领域的使用规模有所上扬,这无疑是受到了Windows系统更新周期的有力推动”。此外,“消费者级领域也显示出了强大的购买力,或者说是初步显示出这种购买力。”
他同时补充称:“可以说,已经有大量PC设备在很长一段时间内从未进行过系统版本的大规模升级。而人们在这样的状况下往往会陷入一种行为惯性,他们更倾向于把本应用在PC升级的钱用来购买其它设备上——但现在情况有了变化,他们又开始把这笔预算用回到了PC身上。”
Milligan表示,西数拥有一套非常出色的PCIe闪存产品发展路线图,其技术成果采购并整合自sTec、Virident以及Velobit等多家公司。我们预计随后将有实际产品公布出来。
将西数与希捷双方的本季度营收加以对比,我们会发现二者的表现存在较大差距——希捷营收出现萎缩,而西数则基本保持平稳。西数已经与中国商务部达成了协议,获准将其西部数据与HGST驱动器制造体系迁至中国。如果一切顺利的话,那么其产品制造成本将有所下降、并将给利润额度带来有力提振。
形势看起来一片大好,除了SSD闪存业务。不过PCIe营收应该会随着新产品的发布有所提升,我们也希望西数的SSD销售额与销售渠道不断实现扩展。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。