4月14日,在日本东京2021 Interop大展中,华为下一代高性能跨数据中心存储网络(以下简称NoF+方案)在“云计算基础设施”组斩获银奖 。

日本东京2021 Interop大展华为NoF+方案颁奖现场
日本东京Interop大展作为日本规模最大,行业影响力最强的ICT展会,业界顶级的科技公司每年都会在Interop上展示最领先的解决方案,此次华为以NoF+方案参与角逐,凭借方案的先进性、独特性以及精彩的现场演示,获得了主办方评委的一致肯定与青睐。那么,华为下一代高性能存储网络NoF+何以成为面向未来的存储网络建设方向、支撑数据中心发展?首先,从存储与网络两者的关系与发展中我们可一探究竟。
新技术引爆存储产业迭代,创新存储网络呼之欲出
近年来全闪存阵列逐步取代了以往机械硬盘的存储设备, NVMe协议的诞生大幅释放闪存性能潜力。同时其他介质、架构等存储新技术的广泛应用也成为驱动存储飞速发展的引擎。而为了让数据中心更好的承载业务发展,存储对数据中心里密切配合的“好搭档”——网络也提出了新的诉求。
智能时代新技术、新应用层出不穷,数据呈现爆发式增长,对业务时实时性要求逐步提高,首先就是更加要求高性能下的稳定性,存储作为数据中心底座,为了减少存储抖动放大对业务的影响,越是在高业务负荷承载的情况下越要保持稳定;其次在疫情时代,更多线下业务转型线上,数据流动性极大增强,这时就需要考虑如何能够满足大规模建设问题,未来必然需要扩展性更强大、产业可持续发展的网络;最后还要保障在大规模扩展建设情况的易用性,以便很好的解决业务扩张带来的挑战。

日本东京2021 Interop大展华为NoF+方案宣讲现场
历史上出现过很多诸如iSCSI、FCoE等改造技术,实质上却并未颠覆专用网络的形态,存储产业迅速发展,能解决这些新诉求、更适合智能时代的创新存储网络呼之欲出。
变革序幕拉开,新以太技术支撑数据中心发展
网络产业其实也为了满足数据中心存储的诉求做过很多尝试,业界基本形成一个共识:在未来建设大规模通用型数据中心时,用以太网承载存储网络是必然趋势。
首先以太网络产业更加健壮和开放,产业的可持续发展能力需求是不变的真理。同时更多厂家的参与也带来了技术的快速发展,以太网络目前仍然可以满足“摩尔定律”的演进能力,性能短期内快速翻倍;其次华为创新的以太网络架构已提供了更加强大的扩展性保障。而这也催生NVMe over Fabrics(NoF),成为业界趋势。
从NoF到NoF+,华为如何引领下一代存储网络变革
华为发布NoF+方案,与当下业界的标准NoF(NVMe over Fabrics)方案有何不同呢?
基于当下业界主流标准NoF,华为依靠在网络和存储领域的深厚积累,进一步从可靠性、性能和易用性这三点都进行提升,基于智能无损网络数据面向存储场景提出了NoF+解决方案。将数据中心存储网络进一步推向更广阔的发展空间。

日本东京2021 Interop大展华为NoF+方案展台现场
首先是在可靠性上的增强,保障业务系统可靠是存储的根基,比如存储的秒级切换功能就是可靠性的关键保障之一,标准以太缺乏故障主动发现和通知能力,华为NoF+实现了从事后被动响应到主动通知、提前识别拥塞和故障,当一个节点出现故障,业务会以亚秒级响应速度切换,在高性能运行的前提下,也能维持系统的稳定可靠。
其次是在性能上的增强,华为NoF+方案改变了传统以太静态水线方式,对网络预测性能力进行专项优化,通过样本计算,针对特定场景,通过算法进行精准的控制,从而实现预判业务对网络的诉求,提前做出优化,实现高吞吐带宽,进一步提升性能。
最后华为的存储与网络产品强强联合,打造了“即插即用”的方案,实现了一键式扩容,自动化管理,增强了在未来建设时的易用性。
华为NoF+基于智能无损网络和存储的智能“传-算-智-存-管”,实现了数据在数据中心端到端调优,加快了数据传输速率以及网络传输中的误码率,提升了系统可靠性,在核心业务场景使用中堪称“神来之笔”。
目前,华为NoF+是业界唯一集合零丢包的以太网,大带宽、低时延、易维护,开放兼容,利于存储、网络、计算三种资源融会贯通,实现数据的实时共享。并且华为NoF+方案已经同某些大型金融、运营商企业都进行了联合创新实践,为数据基础设施领域建设打开新格局。存储网络创新变革迈出万里长征第一步,面向未来,在我们持续投入的基础上也期待更多各行各业伙伴的加入。

好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。