在美光第二代HBM3芯片亮相一个月后, SK海力士正在对一款HBM3E芯片进行采样。
HBM3E是第3代高带宽存储器扩展版,遵循2022年1月推出的HBM3标准。这种存储器是由放置在逻辑模具上方的DIMM芯片堆集构建的,并通过中介器连接到GPU或CPU上。或者,存储芯片可以直接堆叠在GPU上。无论哪种方式,DRAM到GPU/CPU的带宽都高于通过插槽连接到处理器的DRAM的传统X86架构。行业机构JEDEC规定了HBM标准,其HBM3标准于1月发布。现在,在人工智能和机器学习热潮的推动下,供应商们正急于让它过时。
过去一段时间存储市场需求低迷,存储器和NAND供应过剩,如今存储器市场开始出现一些复苏迹象。SK海力士DRAM产品规划主管Sungsoo Ryu表示:“通过增加高价值HBM产品的供应份额,SK海力士也将寻求快速的业务转型。”
HBM世代表。
该公司自称是世界上唯一的HBM3产品“大规模生产商”之一,并计划从明年上半年开始批量生产HBM3E。SK海力士谈到了其为人工智能市场生产的内存,目前由于对ChatGPT型大型语言模型(LLM)的需求而大幅扩大。SK认为LLM处理是内存有限的,并旨在纠正这一点。
SK海力士产品的细节很少,该公司只表示每秒可处理高达1.15 TB的数据,相当于每秒处理230多部5GB大小的全高清电影。美光上个月宣布了一款超过1.2TBps的HBM3第二代产品,这表明SK海力士还有工作要做。
美光的HBM3第2代产品采用8层堆叠,容量为24GB,即将推出36GB容量的12层堆叠版本。SK海力士于4月宣布推出12层堆栈HBM3产品,容量为24GB。
我们怀疑SK海力士的HBM3E产品可能是基于这款容量为24GB的12层堆叠产品开发的,并且可能实现36GB的容量。
SK海力士表示,HMB3E产品与HBM3向下兼容;只要把它放在现有的设计中,系统即可更快运行。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。