在美光第二代HBM3芯片亮相一个月后, SK海力士正在对一款HBM3E芯片进行采样。
HBM3E是第3代高带宽存储器扩展版,遵循2022年1月推出的HBM3标准。这种存储器是由放置在逻辑模具上方的DIMM芯片堆集构建的,并通过中介器连接到GPU或CPU上。或者,存储芯片可以直接堆叠在GPU上。无论哪种方式,DRAM到GPU/CPU的带宽都高于通过插槽连接到处理器的DRAM的传统X86架构。行业机构JEDEC规定了HBM标准,其HBM3标准于1月发布。现在,在人工智能和机器学习热潮的推动下,供应商们正急于让它过时。
过去一段时间存储市场需求低迷,存储器和NAND供应过剩,如今存储器市场开始出现一些复苏迹象。SK海力士DRAM产品规划主管Sungsoo Ryu表示:“通过增加高价值HBM产品的供应份额,SK海力士也将寻求快速的业务转型。”
HBM世代表。
该公司自称是世界上唯一的HBM3产品“大规模生产商”之一,并计划从明年上半年开始批量生产HBM3E。SK海力士谈到了其为人工智能市场生产的内存,目前由于对ChatGPT型大型语言模型(LLM)的需求而大幅扩大。SK认为LLM处理是内存有限的,并旨在纠正这一点。
SK海力士产品的细节很少,该公司只表示每秒可处理高达1.15 TB的数据,相当于每秒处理230多部5GB大小的全高清电影。美光上个月宣布了一款超过1.2TBps的HBM3第二代产品,这表明SK海力士还有工作要做。
美光的HBM3第2代产品采用8层堆叠,容量为24GB,即将推出36GB容量的12层堆叠版本。SK海力士于4月宣布推出12层堆栈HBM3产品,容量为24GB。
我们怀疑SK海力士的HBM3E产品可能是基于这款容量为24GB的12层堆叠产品开发的,并且可能实现36GB的容量。
SK海力士表示,HMB3E产品与HBM3向下兼容;只要把它放在现有的设计中,系统即可更快运行。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。