IBM第一季度存储业绩表现有些令人失望。IBM整体业绩中,糟糕的硬件产品收入拖动着整体结果下滑。而在这其中,存储收入尤其糟糕。
来自IBM系统及科技事业部(STG)在该季度的收入为23.9亿美元,同比下滑23%。
下面这张图表显示了IBM多年来下滑曲线最陡的第一季度趋势:
Stifel Nicolaus分析师Aaron Rakers指出:“IBM的存储业绩在过去10个季度中一直呈现同比和环比的下滑。”
IBM高级副总裁兼首席财务官Marton Schroeter表示:“看下硬件方面,正如我们预期,长期且周期性的挑战仍然存在。”
长期挑战一直存在,而周期性的挑战是指季度与季度的对比。
然后他表示:“在这个季度,我们的闪存解决方案再次为增长作出了贡献,然而高端存储明显疲软。”
这主要是指DS8000系列,与EMC VMAX以及HDS VSP(OEM自惠普和XP)竞争。
Rakers谈到闪存收入是这样说的:“Gartner预计在12月这个季度FlashSystem贡献的收入大约为4670万美元,相比上个季度的3710万美元有所增长。相比之下,EMC的XtremIO的收入为4950万美元((包括beta客户收入贡献),NetApp FE540的收入为1460万美元。”
这部分闪存收入只是STG存储收入中非常小的一部分。IBM之前承诺将花费十亿美元以增强闪存业务。
Schroeter继续说:“我们正在向联想出售我们的行业标准服务器业务。我们正在重新定位Power,构建一个围绕着OpenPOWER的生态系统,跨Power和存储采取措施让企业跟上市场节奏……我们采取措施让我们的结构符合我们看到的需求状况。”
IBM在调整存储业务,意味着有可能裁员或者缩减产品线。
在IBM隐含的观点中,它任何一个类别下的存储产品都不太可能在短期内实现足以推动整体存储收入上扬的增长。
不过这不仅仅是存储方面的削减。Schroeter表示:“2014年STG的重点是:稳定盈利基础,重新定位Power平台,宣布推出POWER8,存储新品发布,调整业务,这些都将今年继续进行。这些再加上System x的剥离,将导致硬件业务未来盈利空间更小。”
“今年还将有存储新品发布。”他强调说,“IBM将保持在高性能和高端系统、存储和感知计算方面的领先地位。”但是对于这一点是有些令人质疑的,IBM并非真正地被归类为存储市场的领先者。
在财报的发布中有这么一句有趣的话:“来自该公司增长市场的收入下滑了11%。”难道这里说的是个位数增长的市场?
作为IBM系统与网络管理框架软件的Tivoli软件是亮点,Schroeter表示:“Tivoli收入增长7%。这个季度Tivoli产品的所有三个细分市场,系统管理、存储和安全都是增长的。其中在安全方面连续6个季度呈现双位数增长。”
451集团的Simon Robinson在推特上这样写道:“IBM存储业务的挣扎将不可避免地导致关于它是否会将其存储产品组合合理化的猜测。”当然,这里的“合理化”指的是出售,就像卖掉x86服务器业务那样。
IBM的存储业务曾经是每季度收入数十亿美元的业务,而现在只剩一半了。在IBM首席执行官Ginni Rometty决定适可而止、并认为得救机会渺茫之前,蓝色巨人还将行走多远?
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。