NetApp公司宣布将在ONTAP v9.0当中提供额外的数据体积削减机制,它的真面目究竟如何?

三名宇航员挤在Soyuz胶囊中从环地轨道重返地球--这种思路与NetApp的IO处理机制颇有异曲同工之妙。
这一压缩处理方案适用于NetApp公司旗下的各全闪存FAS阵列。根据Presidio公司数据中心实践负责人Adam Bergh发布的博文所言,这套方案将多条IO进行同时写入以提高操作效率。从WAFL空间的角度看,以4KB数据块方式进行IO整理确实能够更有效地利用资源。
这一数据块大小被定名为WAFL(即ONTAP的'随处写入文件布局'),专门用于磁盘写入操作。该机制利用4KB数据块避免了存储空间浪费难题。
具体来讲,这套方案将多条IO整合为一个4KB数据块,并利用此逻辑块向磁盘中进行实际写入。每条IO都会被纳入一个4 KB逻辑块,即使其实际大小不足4 KB。通过这种压缩处理,4KB逻辑块会持续容纳更多IO直到满载,而后再建立新的逻辑块以承载下一条IO。这种压缩机制能够独立于重复数据删除与压缩技术之外起效,因此效果可以再次叠加。

NetApp ONTAP v9.0压缩原理示意图
Bergh还谈到了ONTAP 9中的其它几项功能。其一为增强分析,其将配合即将推出的OnCommand Performance Manager 3.0,并将引入一项顶部空间指标。存储管理员能够了解ONTAP集群模型的使用情况,并以此为基础掌握该节点所能承载的额外工作负载量。
根据我们的理解,其将监控IO延迟(单位为毫秒每IO)并提供利用率百分比。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。