Micron 宣称其最新的企业级客户端 SSD——面向 AI PC、游戏玩家和专业用户的 PCIe 5.0 4600,其读取速度是其前代产品 3500 的两倍。
这些采用胶棒形态 (M.2) 的驱动器面向 OEM 厂商和企业系统经销商,这与 Micron 旗下面向发烧友和游戏玩家的 Crucial 消费者品牌的 T700/705 和 P510 PCIe 5.0 M.2 驱动器形成对比。T700 和 T705 采用 Micron 第 8 代 232 层 TLC NAND,而 P510 则使用更新的第 9 代 276 层产品,同样采用 TLC 格式。
回到企业市场,3500 是一款使用较慢的 PCIe 4.0 总线的 232 层 TLC 产品,其速度是 PCIe 5.0 的一半,顺序读写带宽最高可达 7GB/s。Micron 现在推出 4600 型号进行更新,采用更高密度的 TLC NAND、276 层和 PCIe 5.0 总线,与 P510 类似,可提供高达 14.5GB/s 的读取和 12GB/s 的写入带宽。可选容量为 512GB、1TB、2TB 和 4TB。它能够提供 2,100,000 IOPS 的随机读写性能,并具有较低的延迟:读取 50μs,写入 12μs。
Micron 客户端存储部门副总裁兼总经理 Prasad Alluri 表示:"使用 4600 NVMe SSD,用户可以在不到一秒的时间内加载大语言模型,为数据密集型应用提供 PC 体验,特别是在 AI 方面。随着 AI 推理在 PC 本地运行,转向 Gen5 SSD 可以满足对更高性能和能效的需求。"
在使用 SPECwpc 基准测试的各种应用工作负载中,其性能平均比 3500 产品高出 50% 以上。
功耗数据如下: 睡眠状态:<3.5mW 空闲状态:<150mW 读取状态:<8,500mW
该产品具有一系列安全功能:AES-256 加密、TCG Opal 和 Pyrite、签名固件和引导、安全协议和数据模型 (SPDM)、数据对象交换 (DOE) 和设备标识符组合引擎 (DICE),所有这些都有助于为用户数据提供更好的保护。
三星和 SK 海力士也生产竞争性的企业级 M.2 格式 PCIe 5.0 驱动器。三星 PM9E1 提供高达 14.5GB/s 的顺序读取和 13GB/s 的顺序写入速度,使其略快一些。SK 海力士的 Platinum P51 同样针对 AI PC 市场,具有相似的性能:读取速度为 14GB/s,写入速度为 12GB/s。
根据韩国 SE Daily 的报道,Micron 可能正在与 SK 海力士和 NVIDIA 共同开发用于 AI PC 的新型 SOCAMM (System On Chip Advanced Memory Module) 内存格式。这个由 NVIDIA 推动的计划将使用 LPDDR5X DRAM 来替代使用 DDR4 或 DDR5 内存的 SODIMM 模块。报道称 SOCAMM 将是一个可拆卸的大指甲大小的产品,允许升级,并具有 694 个端口,而普通 PC DRAM 模块约有 260 个端口。这意味着其数据 I/O 带宽将更大,并支持在 AI PC 上运行的 AI 模型。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。