据报道,华为即将推出一款AI SSD,该产品将与其统一缓存管理器(UCM)软件协同工作,从GPU的高带宽内存中卸载键值(KV)缓存数据,通过避免KV缓存数据重新计算来加速AI处理。
当大语言模型执行时,它会以键和值的形式将数据存储在GPU的高带宽内存(HBM)中。在长时间推理运行的情况下,这个缓存会被新的KV数据填满,导致较旧的数据被驱逐,当再次需要时就必须重新计算。这种重新计算会延长大语言模型的运行时间,延迟对用户请求的响应。通过将被驱逐的KV数据存储在连接的SSD中,可以在需要时检索,从而缩短模型响应时间。
即将推出的华为AI SSD据说有助于解决影响GPU服务器的内存墙问题,即有限的HBM容量会延长计算时间。美国的技术出口限制阻碍了中国使用最新GPU和HBM的努力。中国国内的内存制造商尚未开发出自己的HBM技术。华为AI SSD将具有大容量但未具体说明的存储空间,以及快速但同样未具体说明的I/O性能。
VAST Data和WEKA及其增强内存网格都有将KV缓存内容卸载到SSD的软件,中国的燕融存储系统供应商也有类似技术。PEAK:AIO和Pliops也提供KV缓存卸载解决方案。
华为的方案依赖其UCM软件提供分层KV缓存概念,包含GPU HBM、CPU DRAM内存和直连SSD存储,根据需要在各层之间移动数据。华为还拥有现有的XtremeLink技术,使用eKitStor Xtreme 200E SSD,采用PCIe Gen 4 x 4通道连接,提供高达6.5 GBps的读取速度和7 GBps的写入速度。
这个性能不错但并非顶尖。SK海力士的Platinum P41 M.2 SSD在相同的PCIe Gen 4 x 4配置下提供7 GBps读取和6.5 GBps写入速度。华为需要采用PCIe Gen 5互连技术才能获得12-14 GBps范围内更快的读写速度。燕融已经拥有国产PCIe 5 NVMe SSD。
报告还提到了华为的SpeedFlex PCB技术,涉及其印刷电路板的热可靠性和优化数据传输。这似乎并非尖端技术。
报告称,配备UCM、XtremeLink和SpeedFlex的AI SSD"代表了国产SSD的关键突破。华为将与国内训练和推理设备制造商合作,这将帮助中国构建新的AI生态系统,应对全球化挑战。"
Q&A
Q1:华为AI SSD是如何解决GPU内存瓶颈问题的?
A:华为AI SSD通过与统一缓存管理器软件协同工作,将GPU高带宽内存中的键值缓存数据卸载到SSD存储中。当GPU内存被新数据填满时,旧数据不会丢失而是存储在SSD中,需要时可直接检索,避免了重新计算,从而缩短大语言模型的响应时间。
Q2:华为AI SSD的性能表现如何?
A:华为AI SSD使用XtremeLink技术和eKitStor Xtreme 200E SSD,采用PCIe Gen 4 x 4通道连接,提供高达6.5 GBps读取速度和7 GBps写入速度。不过这个性能并非顶尖,SK海力士同类产品在相同配置下可达7 GBps读取和6.5 GBps写入速度。
Q3:为什么华为要开发AI SSD产品?
A:主要原因是美国技术出口限制阻碍了中国使用最新GPU和高带宽内存的努力,而中国国内内存制造商尚未开发出自己的HBM技术。华为AI SSD旨在通过创新的缓存管理方案缓解GPU内存瓶颈,帮助中国构建新的AI生态系统应对挑战。
好文章,需要你的鼓励
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。