Micron 宣称其最新的企业级客户端 SSD——面向 AI PC、游戏玩家和专业用户的 PCIe 5.0 4600,其读取速度是其前代产品 3500 的两倍。
这些采用胶棒形态 (M.2) 的驱动器面向 OEM 厂商和企业系统经销商,这与 Micron 旗下面向发烧友和游戏玩家的 Crucial 消费者品牌的 T700/705 和 P510 PCIe 5.0 M.2 驱动器形成对比。T700 和 T705 采用 Micron 第 8 代 232 层 TLC NAND,而 P510 则使用更新的第 9 代 276 层产品,同样采用 TLC 格式。
回到企业市场,3500 是一款使用较慢的 PCIe 4.0 总线的 232 层 TLC 产品,其速度是 PCIe 5.0 的一半,顺序读写带宽最高可达 7GB/s。Micron 现在推出 4600 型号进行更新,采用更高密度的 TLC NAND、276 层和 PCIe 5.0 总线,与 P510 类似,可提供高达 14.5GB/s 的读取和 12GB/s 的写入带宽。可选容量为 512GB、1TB、2TB 和 4TB。它能够提供 2,100,000 IOPS 的随机读写性能,并具有较低的延迟:读取 50μs,写入 12μs。
Micron 客户端存储部门副总裁兼总经理 Prasad Alluri 表示:"使用 4600 NVMe SSD,用户可以在不到一秒的时间内加载大语言模型,为数据密集型应用提供 PC 体验,特别是在 AI 方面。随着 AI 推理在 PC 本地运行,转向 Gen5 SSD 可以满足对更高性能和能效的需求。"
在使用 SPECwpc 基准测试的各种应用工作负载中,其性能平均比 3500 产品高出 50% 以上。
功耗数据如下: 睡眠状态:<3.5mW 空闲状态:<150mW 读取状态:<8,500mW
该产品具有一系列安全功能:AES-256 加密、TCG Opal 和 Pyrite、签名固件和引导、安全协议和数据模型 (SPDM)、数据对象交换 (DOE) 和设备标识符组合引擎 (DICE),所有这些都有助于为用户数据提供更好的保护。
三星和 SK 海力士也生产竞争性的企业级 M.2 格式 PCIe 5.0 驱动器。三星 PM9E1 提供高达 14.5GB/s 的顺序读取和 13GB/s 的顺序写入速度,使其略快一些。SK 海力士的 Platinum P51 同样针对 AI PC 市场,具有相似的性能:读取速度为 14GB/s,写入速度为 12GB/s。
根据韩国 SE Daily 的报道,Micron 可能正在与 SK 海力士和 NVIDIA 共同开发用于 AI PC 的新型 SOCAMM (System On Chip Advanced Memory Module) 内存格式。这个由 NVIDIA 推动的计划将使用 LPDDR5X DRAM 来替代使用 DDR4 或 DDR5 内存的 SODIMM 模块。报道称 SOCAMM 将是一个可拆卸的大指甲大小的产品,允许升级,并具有 694 个端口,而普通 PC DRAM 模块约有 260 个端口。这意味着其数据 I/O 带宽将更大,并支持在 AI PC 上运行的 AI 模型。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。