三星终于将其31TB SSD投入了生产,追赶上东芝同样得天独厚的SAS闪存封装。
30.72TB的PM1643有效地取代了目前的PM1633a及其15.36TB的容量限制,被定位为一款企业SSD产品,三星告诉我们这款SSD可以存储5700部高清电影。
关于这款SSD的消息最早是在去年8月出现的,当时预计是在2017年发布。这款SSD的容量是最大磁盘驱动器容量的2倍以上,24个SSD可插入到2U、24插槽的机箱中,实现737.3 TB、0.74PB的设备——令人印象深刻,并且需要某种保护功能来限制所谓的爆炸半径,如果其中一个驱动器发生故障的话。
PM1643采用512Gbit、64层TLC(3位/单元)V-NAND(三星的3D NAND技术)芯片。这些芯片堆叠成16层,生产为1TB封装,其中32个封装在SSD内部,形成30.72TB容量。
该控制器集成了9个之前的控制器,具有40GB的DRAM,由10 x 4GB DRAM封装组成,同时采用Through-Silicon Via(TSV)技术,用于互连8Gb DDR4内存芯片。
这造就了一款能够实现400,000/50,000随机读/写IOPS的SSD——主要倾向于读性能——通过12Gb SAS接口实现2.1/1.7GB/s的连续读/写带宽。
三星PM1643 31TB SSD
三星告诉我们,PM1643的性能几乎是PM1633a的2倍,随机读性能和连续读性能是其850 EVO消费级SSD的4倍和3倍。
所以它相当于2015年那个时候的850 EVO驱动器。
东芝在去年8月推出了31TB的PM5 SSD,因此三星生产的PM1643现在与东芝相当。但是,东芝在性能方面领先,连续读写带宽为3.35/2.72GB /s,随机读IOPS性能高达400,000。
竞争对手英特尔、美光、希捷WDC和SK Hynix在30TB SAS SSD容量级别上没有任何优势,希捷通过其Nytro 3000最高可达15.36TB。
PM1643支持每天全盘写入,提供五年质保,并有200万小时的平均无故障时间(MTBF)——没有什么特别的,当然与三星近期的860 EVO相比,耐用性有所提高,支持每天2次全盘写入。
三星主打自己的控制器软件,称PM1643“支持元数据保护,突发电源故障后的数据保留和恢复,以及纠错码(ECC)算法”,但三星没有提到可能被认为是有用的加密功能。
有可能是存在某种控制器空间的限制,使得无法安装加密芯片。
如果三星不得不通过其堆叠的40GB DRAM来实现智能的空间精简的话,那么PM1643内部的物理空间已经满载,进一步的容量改进将要通过4级(4位/单元或QLC)技术或者96层3D NAND来实现。
我们可以想象使用QLC闪存的40TB驱动器,而不是使用TLC的PMC1643,以及高达60TB的驱动器,可能与96层3D NAND相差甚远。虽然它可能看起来只是猜测和大体数字,但这个三星演示幻灯片支持了这个观点。
Sammy表示,将会推出更小一些的容量:800GB、960GB、1.92TB、3.84TB、7.68TB和15.36TB。我们没有找到的PM1643规格表,没有可用性信息,也没有OEM驱动器的价格信息。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。