在美光第二代HBM3芯片亮相一个月后, SK海力士正在对一款HBM3E芯片进行采样。
HBM3E是第3代高带宽存储器扩展版,遵循2022年1月推出的HBM3标准。这种存储器是由放置在逻辑模具上方的DIMM芯片堆集构建的,并通过中介器连接到GPU或CPU上。或者,存储芯片可以直接堆叠在GPU上。无论哪种方式,DRAM到GPU/CPU的带宽都高于通过插槽连接到处理器的DRAM的传统X86架构。行业机构JEDEC规定了HBM标准,其HBM3标准于1月发布。现在,在人工智能和机器学习热潮的推动下,供应商们正急于让它过时。
过去一段时间存储市场需求低迷,存储器和NAND供应过剩,如今存储器市场开始出现一些复苏迹象。SK海力士DRAM产品规划主管Sungsoo Ryu表示:“通过增加高价值HBM产品的供应份额,SK海力士也将寻求快速的业务转型。”
HBM世代表。
该公司自称是世界上唯一的HBM3产品“大规模生产商”之一,并计划从明年上半年开始批量生产HBM3E。SK海力士谈到了其为人工智能市场生产的内存,目前由于对ChatGPT型大型语言模型(LLM)的需求而大幅扩大。SK认为LLM处理是内存有限的,并旨在纠正这一点。
SK海力士产品的细节很少,该公司只表示每秒可处理高达1.15 TB的数据,相当于每秒处理230多部5GB大小的全高清电影。美光上个月宣布了一款超过1.2TBps的HBM3第二代产品,这表明SK海力士还有工作要做。
美光的HBM3第2代产品采用8层堆叠,容量为24GB,即将推出36GB容量的12层堆叠版本。SK海力士于4月宣布推出12层堆栈HBM3产品,容量为24GB。
我们怀疑SK海力士的HBM3E产品可能是基于这款容量为24GB的12层堆叠产品开发的,并且可能实现36GB的容量。
SK海力士表示,HMB3E产品与HBM3向下兼容;只要把它放在现有的设计中,系统即可更快运行。
好文章,需要你的鼓励
微软宣布未来四年将在阿联酋投资152亿美元,包括首次向该国运输最先进的英伟达GPU芯片。美国已授权微软向阿联酋出口英伟达芯片,使该国成为美国出口管制外交的试验场和地区AI影响力锚点。这笔投资包括2023年以来的73亿美元支出和2026-2029年的79亿美元计划投入,涵盖数据中心建设、人才培训和AI基础设施扩展,目标到2027年培训100万当地居民。
NVIDIA联合多伦多大学开发的ChronoEdit系统通过将图像编辑重新定义为视频生成问题,让AI具备了物理常识。该系统引入时间推理机制,能够想象编辑的完整变化过程,确保结果符合物理规律。在专业测试中,ChronoEdit超越了所有开源竞争对手,特别在需要物理一致性的场景中表现突出,为自动驾驶、机器人等领域的应用提供了重要技术突破。
OpenAI与亚马逊云服务签署七年380亿美元协议,在微软Azure之外增加另一个超大规模云服务商来满足其不断增长的AI计算需求。该协议将让OpenAI立即获得AWS EC2 UltraServers访问权限,计算能力将在未来七年内扩展至数千万个CPU。AWS还将为OpenAI构建基于英伟达Blackwell芯片的定制基础设施。尽管签署了这一大额协议,OpenAI仍将继续依赖微软Azure作为其主要云计算合作伙伴。
这项研究提出了MITS框架,使用信息论中的点互信息指导AI推理过程,解决了传统树搜索方法计算成本高、评估标准模糊的问题。通过动态采样和加权投票机制,MITS在多个推理数据集上显著超越现有方法,同时保持高效的计算性能,为AI推理技术开辟了新方向。