如今,IT分析领域只有一个核心议题——大语言模型(LLM)机器学习和生成式AI(GAI)。去年11月底发布的ChatGPT聊天机器人在全球范围内引发巨大关注,一周内用户量突破100万;谷歌Bard和亚马逊Titan等类似的基础模型也同样掀起热潮。
此类生成式AI能够理解文本提示并输出有效答案,在被引入商业和公共部门的IT领域之后,这项技术有望从根本上提高搜索和分析质量。AI的普遍应用有望在未来十年内取代并/或提高各类知识工作者的生产力,包括客服中心、内部销售人员、会计师、律师和金融分析师。
生成式AI热度的快速升温将对IT行业产生影响,Forrester、Gartner等分析师和研究机构也在预测后续冲击。部分数据存储行业将凭借生成式AI获取巨大的潜在销售收益,本文将尝试对此做出分类。
William Blair发布的126页《生成式AI:自动化的新前沿》报告提供了大量信息。
DRAM – 运行大语言模型训练和推理的CPU/GPU服务器将迎来强劲需求,其中包括用于GPU的高带宽内存HBM。
PCIe – PCIe 4和5.0组件供应商应该为需求激增做好准备。
CXL – CXL 2.0内存池也将从大语言模型的火热中得到一剂强心针,包括CXL硬件供应商。因此,三星、SK海力士等DRAM扩展器、CXL交换机和其他组件厂商都将获得收益。
NAND与SSD – 需求必然越来越多,主要集中在NVMe、PCIe 4.0和5.0连接以及性能与容量的组合。因此QLC和高层数TLC NAND也将因此受益。所有NAND晶圆厂和SSD供应商都应关注这方面市场。
存储阵列 – 市场需要高容量和高速IO。AI/机器学习集群将需要PB级别的容量。大语言模型训练的运行需要配合高速数据集读取和检查点写入,这种并行访问必然依赖于硬件和软件。大语言模型的推理运行需要高读取访问率,以及到处理器的并行数据传输路径。
考虑到现实需求,这波热潮可能主要有利于使用NVMe协议和支持英伟达GPU服务器GPUDirect的文件访问全闪存阵列。DDN、NetApp、Pure Storage(AIRI)和VAST Data等供应商已经做好了战斗准备。Panasas也不会错过边缘位置的AI业务机会。相比之下,对象存储和块存储厂商的想象空间似乎就相对有限。
我们认为,尚不支持GPUDIrect的供应商应该抓紧补上这块短板。
以CXL为重点的软件 – MemVerge和Unifabrix等供应商应该会迎来一波持续性的业务高潮。
数据分析 – 供应商需要抓紧时间引入大语言模型前端。
数据库、数据仓库和智能湖仓 – 供应商必须能够支持大语言模型所需要的向量嵌入。目前,为用户提供聊天机器人前端的需求已经非常强烈,这将使得非数据科学家和非资深SQL用户也能运行复杂分析。这些厂商还有机会将新成果引入ETL(提取、转换和加载)流程,将选定的数据快速输出至大语言模型以进行训练和推理。
数据管理工具 – 可以应用大语言模型技术分析自己的数据集,并为AI流程提供数据以扩大业务规模。
高速阵列 – 供应商可以将自己的软件移植到运行生成式AI模型的公有云,借此支持以本地/公有云混合的方式运行大语言模型的客户。
横向扩展并行文件系统 – IBM(Storage Scale)和WEKA等供应商在这方面处于有利地位,其现有客户正在应用生成式AI技术,新客户则迫切需要快速、大容量的文件访问软件。这部分业务空间同样相当可观。
云文件服务供应商 – 这类厂商可以使用云端存储的数据集为大语言模型提供数据,但数据需要从底层对象库转移至更快的访问存储介质;换言之,类似于某种形式的ETL。但也不排除AWS、Azure和谷歌等云服务商会提供类似于GPUDirect的方式,将数据从S3/Azure Blob等直接传递至GPU实例。
数据编排工具 – 这类厂商可以帮助客户编排大语言模型所需要的数据,借此获取间接收益。
数据保护与安全 – 供应商需要关注适用于管理设施的聊天机器人界面,借此更好地保护数据集并发现漏洞。特定领域的聊天机器人可以检查组织的攻击并确定相应保护措施。数据保护备份数据集则可以为大语言模型提供给定的ETL过程。
磁盘驱动器阵列 – 这类产品速度太慢,只要作为主存储闪存之外的次级存储形式。
生命周期管理工具 – 这类厂商需要研究聊天机器人界面如何帮助用户提高工作效率。
安全供应商 – 聊天机器人和其他AI技术的发展成熟,将帮助这类厂商高效检测、响应恶意软件和处理用户交互。
软件定义存储 – 这类厂商有可能被生成式AI的浪潮甩在身后,必须找到某种方法满足高性能访问需求才有可能分得额外业务空间。
存储管理员 – 聊天机器人能够提高他们的工作效率,或者由技术水平较低的员工完成原本对技能要求较高的工作。
磁带系统 – 这类归档系统速度过慢,无法与大语言模型提供数据,但在市场上仍有生存空间。
Web3 – 此类存储速度太慢,在大语言模型的世界中没有任何发挥余地。
好文章,需要你的鼓励
2025年,企业技术高管面临巨大压力,需要帮助企业从持续的AI投入中获得回报。大多数高管取得了进展,完善了项目优先级排序方法。然而,CIO仍面临AI相关问题。支离破裂的AI监管环境和宏观经济阻力将继续推动技术高管保持谨慎态度。随着AI采用增长的影响不断显现,一些CIO预期明年将带来劳动力策略变化。
这篇论文提出了CJE(因果法官评估)框架,解决了当前LLM评估中的三大致命问题:AI法官偏好倒置、置信区间失效和离线策略评估失败。通过AutoCal-R校准、SIMCal-W权重稳定和OUA不确定性推理,CJE仅用5%的专家标签就达到了99%的排名准确率,成本降低14倍,为AI评估提供了科学可靠的解决方案。
FinOps基金会周四更新了其FinOps开放成本和使用规范云成本管理工具,新版本1.3更好地支持多供应商工作流。该版本新增了合同承诺和协商协议数据集,增加了跨工作负载成本分摊跟踪列,以及云支出和使用报告时效性和完整性的元数据可见性。随着云和AI采用推动企业IT预算增长,技术供应商正在关注将成本与价值联系起来的努力。大型企业通常使用三到四家云供应商,小企业可能使用两家,同时还有数据中心、SaaS和许可等服务。
NVIDIA团队开发出Fast-FoundationStereo系统,成功解决了立体视觉AI在速度与精度之间的两难选择。通过分而治之的策略,该系统实现了超过10倍的速度提升同时保持高精度,包括知识蒸馏压缩特征提取、神经架构搜索优化成本过滤,以及结构化剪枝精简视差细化。此外,研究团队还构建了包含140万对真实图像的自动伪标注数据集,为立体视觉的实时应用开辟了新道路。