东京工业大学的科学家们设计出一种新型3D DRAM栈,其顶部配有处理器,可提供比高带宽内存(HBM)高出四倍的传输带宽与仅五分之一的访问功耗。
HBM通过中介层将小型DRAM栈接入至CPU,从而避开了受到CPU限制的DRAM插槽数量。在Bumpless Build Cube 3D(简称BBCube3D)概念中,单个DRAM芯片通过微凸块(连接器)与上方或下方的芯片相连,而连接孔(通过硅通孔,即TSV)穿过芯片将各个微凸块连接起来。
研究团队负责人Takayuki Ohba教授表示,“BBCVube 3D拥有良好的性能潜力,可实现每秒1.6 TB理论传输带宽,相当于DDR5的30倍、HBM2E的4倍。”
研究人员们削薄了每个DRAM芯片,同时消除了BBCube3D晶圆叠层(WOW)设计中的微凸块。与DDR5或HBM2E(第二代高带宽扩展内存)设计相比,这种新方案使得内存块拥有更高速度和更低的运行能耗。这是因为前者的运行温度更高,而且凸块的存在会增加电阻/电容和延迟。
HBM微凸块还会占用空间,且芯片的硬度也必须达标,否则无法承受堆叠层合并所带来的压力。通过消除微凸块,每个内存芯片都可以变得更薄、硅通孔更短,从而实现带好的散热效果。BBCube3D设计还不需要中介层,因为处理单元、CPU或GPU能够直接绑定至缓存芯片,而缓存芯片本身又可绑定至DRAM栈的顶端。

研究人员们解释道,“更短的硅通孔互连能够为CPU和GPU等高温设备提供更好的散热……高密度硅通孔本身就可以充当热管,因此即使是在3D结构当中,其预期运行温度也会更低。”
“由于硅通孔长度更短且信号并行度更高”,BBCube“能够实现更高带宽与更低运行功耗”。
通过调整相邻IO线的时序来确保其彼此异相,研究人员还成功减少了分层DRAM中的串扰。这种方法被称为四相屏蔽输入/输出,意味着IO线永远不会与其紧邻的线路同时发生值变化。
下图所示,为BBCube与DDR5和HBM2E内存技术的速度与能耗比较。可以看到,其带宽达到DDR5内存的32倍,速度相当于HBM2E的4倍。与此同时,BBCube 3D设计还实现了比DDR5和HBM2E更低的访问能耗水平。

Ohba解释道,“由于BBCube的热阻和阻抗都更低,所以能够缓解3D集成设计中经常出现的热管理和电源问题。此次提出的新技术能够在达成可观传输带宽的同时,将每bit访问功耗降低至DDR5的二十分之一和HBM2E的五分之一。”
BBCube 3D属于高校主导的研究项目。关于该项目的详细背景信息,可以在MDPI Electronics论文《论使用晶圆上晶圆(WoW)与晶圆上晶片(CoW)实现兆级三维集成(3DI)的BBCube》(https://www.mdpi.com/2079-9292/11/2/236)中找到。论文提到,“BBCube允许将堆叠的芯片数量提升至HBM的4倍,意味着使用16 Gb DRAM裸片时内存容量可以达到64 GB。”
文章同时指出,“通过堆叠40层DRAM,即可实现Tb级别的3D内存。”
论文《Bumpless Build Cube (BBCube) 3D:使用WoW与CoW的异相3D集成实现TB/s级传输带宽与最低bit访问功耗》(Bumpless Build Cube (BBCube) 3D: Heterogeneous 3D Integration Using WoW and CoW to Provide TB/s Bandwidth with Lowest Bit Access Energy)对BBCube 3D概念也做了描述,文章发表于2023年6月的IEEE 2023 VLSI技术与电路研讨会。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。