闪存驱动器领域也要有我们身影存在,希捷公司在本届闪存记忆体峰会上凭借着两台全新SSD产品强调了这一信息--其中一款为8 TB NVMe驱动器,另一款SSD则为3.5英寸且拥有可怕的60 TB容量。
这款60 TB产品的出炉意味着大家能够将超过1000块美光3D NAND晶粒塞进一款全尺寸3.5英寸磁盘当中。根据我们掌握的情况,此款产品配备双12 Gbit每秒SAS接口与15万随机读取IOPS,不过其写入IOPS尚未披露。其连续读取/写入参数分别为每秒1.5 GB与1.0 GB。
这款驱动器配备单一控制器,而且我们目前还不清楚其具体使用寿命。这似乎是一款主动程度不高的(即读取较多/很少写入)归档SSD,或者可用于承载那些读取密集且对延迟较为敏感的高容量需求应用。可怕的是,仅仅是17块这样的驱动器即可为大家提供接近1 PB存储容量。
60 TB存储容量相当于三星15 TB 3D NAND SSD的四倍水平,这让希捷方面在竞争中占尽主动权。三星SSD采用512块256 Gb 48层V-NAND芯片,分16层堆叠在驱动器当中。
美光公司于今年6月公布的1100产品为其第一款3D NAND M.2驱动器,采用384 Gbit晶片。在计算之后,我们发现需要1250块这样的晶片才能构建起一款60 TB驱动器。
希捷公司的60 TB方案也相当于其10 TB 3.5英寸磁盘驱动器容量的六倍。我们还不清楚其使用成本相当于该磁盘产品的多少倍,不过对这款60 TB SSD与10 TB磁盘驱动器进行每GB成本比较显然非常令人期待。
希捷公司指出,我们将在未来迎来容量高达100 TB的更多SSD产品。目前希捷尚未为该产品进行确切定名。不过惠普企业业务公司先进技术与大数据副总裁Mike Vildibill在一份友情声明当中表示:"希捷的全新60 TB SAS SSD产品能够为客户提供更高的服务器存储性能,并在容量配置层面带来前所未有且令人兴奋的可能性。"看起来惠普企业业务公司似乎已经签订了使用该产品的协议。
XP7200的速度定位则要高得多。其拥有94万与16万随机读取与写入IOPS,而连续读取与写入数据速率则凭借着自身16通道PCIe第三代接口达到每秒10 GB与每秒3.6 GB。其采用全高度PCIe尺寸并拥有四块容量优化型Nytro MX1440 M.2 SSD,且每块驱动器皆配合自己的控制器。这款存储卡能够接入单一16通道第三代PCIe插槽,大家需要使用全部通道并配合每驱动器/控制器同样运作以实现其全部性能。

Nytro XP7200分解图,上方为其散热片组件。
其提供的可用容量选项分别为3.8 TB与7.7 TB,我们认为其使用的是MLC闪存而非3D NAND。
希捷公司曾于今年3月在开放计算项目峰会上展示了一款每秒10 GB NVMe第三代PCIE x16产品。当时,我们曾在评论中表示:"我们预计新的存储卡将利用美光芯片,同时继续延续Nytro品牌。"看来这一预测是完全正确的。
XP7200 的适用方向包括高性能计算、向外扩展数据库以及科学研究与天气建模等大数据分析。Accelstor公司似乎正在利用XP7200进行产品设计。

Nytro XP7200卡
希捷公司指出,8 TB Nytro XP7200 NVMe SSD将于今年年底向各销售渠道合作伙伴发货。而60 TB SAS SSD产品则预计于2017年年内推出。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。