眼下,人工智能、深度学习、物联网等技术的成熟及深化应用,全球也经历着前所未有的大革新,而在这场数字化变革的浪潮中,闪存(SSD)作为数据的承载体,起着至关重要的作用。

对于闪存的速度、性能相信大家已经非常熟悉了,不过我们今天的话题不是SSD,而是它"背后的那个它"--NVMe。
NVMe,全称Non-Volatile Memory Express,又名非易失性内存存储器,是一套全新的存储协议标准,在当下SSD横行的市场中占据重要位置,也是目前业内的行业规范。其规范由包含100多家公司在内的工作小组所制定。在最近几年中可以说是彻底改变了存储行业,随着更低的价格和更好的性能,越来越多的企业和数据中心开始采用NVMe。
据专业机构预测:NVMe市场将于2020年超过570亿美元,届时大约40%的全闪存阵列将是基于NVMe标准,且NVMe-oF适配器的付运量将于2020年上升到740,000个。
NVMe优势尽显
提到NVMe的优势,可以总结为一个字,就是快。速度相当惊人。严格来说,NVMe的原始基本规范是被设计为闪存上的存储协议,该协议使用现有未修改的PCIe作为本地传输。这种分层的方法非常重要。其实,NVMe不会创建新的电子或帧图层,而是利用PCIe已经提供的优势。作为高速互操作总线技术,PCIe的历史大家已经耳熟能详,然而,虽然也有优势,但不适合建立大型存储数据或覆盖距离超过几米,正是由于这个限制,NVMe打破局限用作直接连接存储(DAS)技术,本质上将SSD连接到服务器内的处理器,或者可能连接机架内的全闪存阵列。
事实上,NVMe-oF描述了一种通过选定的结构技术绑定常规NVMe协议的方法,这个比较抽象,使得本地NVMe命令可以通过最少的处理在架构上传输,以将架构传输映射到PCIe并返回。演示表明,与直接PCIe链接相比,通过结构访问NVMe SSD的延迟损失可低至10微秒。
上述有点点偏技术,我们再用简单的话术谈下。SATA AHCI标准每条命令需要读取4次寄存器,消耗8000次CPU循环,大概2.5微秒的延迟,而NVMe标准精简了调用方式,执行命令时不需要读取寄存器,延迟不到AHCI标准的一半。
在制定SATA AHCI规范时并行性的想法并没有完全融合到规范内,最高可以支持命令深度级数为32级。而NVMe标准理论上可以把最大队列深度从32提升到64000,SSD的IOPS能力会得到大幅提升。
综合上述,相比于SATA AHCI标准,NVMe标准下的SSD执行命令的延时大大减小了,队列纵深也增强了,IOPS也较大帽度增加了很多。
各厂商争夺市场
NVMe的优势也吸引了不少厂商,其实现在市场上已经有不少相关产品。
Pure Storage:Pure Storage在全闪存领域成长速度,这家公司认为NVMe将开启性能与密度领域的一个新纪元。因此,该公司计划将NVMe引入其一级弹性与企业数据服务当中,旨在将其打造成一种通用型方案--而非昂贵、外来的高性能利基性技术机制。
NetApp:NetApp在全闪存领域可谓如鱼得水,其 FAS 2600、8200、9000存储默认板载自带不同容量大小的NVMe SSD,用于关键业务IO加速。另外NetApp EF570甚至提供100G吞吐带宽NVMe Fabric接口等。
华为:华为在闪存领域拥有12年的持续积累,凭借多年的技术积累已拥有大量闪存核心专利。华为的OceanStor Dorado V3支持SSD盘在任何时间,以任何方式拔出,实现了业界领先的NVMe系统产品化。OceanStor Dorado5000 V3基于NVMe协议,新设计的硬件架构支持双端口NVMe SSD,以及硬盘暴力拔插更换,全新的并行软件架构能充分发挥NVMe的高性能优势。
除此之外,由于NVMe的火热,业内老牌厂商戴尔科技、西部数据、英特尔、IBM等均在此领域大量投入,也不乏创业企业Memblaze、中存超等。随着如今新技术的高速发展,未来NVMe市场或许会更加广阔。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。