
Mellanox公司的BlueField芯片
InfiniBand与以太网适配器厂商Mellanox公司计划利用系统芯片加速存储设备性能,从而经由NVMe架构提供更为出色的外部阵列访问表现。
Mellanox公司CEO Eyal Waldman在其2016年第二季度财报电话会议上谈到了NVMe over Fabrics(简称NVMeF)。该公司的主营项目为InfiniBand与以太网网络设备,同时亦连续第五个季度实现营收增长。
NVMeF是一种将外部NVMe闪存驱动器阵列与服务器对接的方式,其经由网络链路提供与本地闪存驱动器接入方案一致的阵列数据访问能力。目前这类业务供应商包括EMC的DSSD、Mangstor等等。E8公司也将在下个月的闪存记忆体峰会上公布自己的产品。Kaminario与Tegile两家初创企业亦有计划采纳此项技术,而NetApp与Pure Storage则密切关注该技术的最新发展动态。
在本次财报会议上,Waldman表示:"EZchip与Mellanox之间的合并举措已经在今年2月底收购结束后开始进行。今年第二季度,我们公布了双方联合打造的首款产品,即我们的BlueField多核心系统芯片解决方案。BlueField利用连续网状网络配合领先的ConnectX-5网络适配器共同实现了多个ARM核心的互连。其初步目标市场包括存储与网络应用。"
在存储领域,多ARM核心BlueField系统芯片(简称SOC)可作为一组NVMe闪存驱动器的控制器存在,并可通过25/50/100 Gbit每秒以太网连接实现数据访问。
Waldman随后指出:"凭借着嵌入ConnectX-5适配器所带来的加速能力,BlueField提供一套可编程智能网络解决方案。在存储市场当中,BlueFeild能够作为向外扩展NVMe over Fabrics系统中的存储控制器选项。"
他同时表示,BlueField在设计当中支持不断提升的高性能存储网络需求,具体包括由NVMe实现的每秒20 Gbit甚至更高单驱动器IO水平。
Waldman认为NVMeF未来绝对大有可为:"NVMe over Fabrics是一种新的微观趋势,意味着存储市场上的各家客户将利用其替代原有光纤通道设施。我们认为这一趋势将体现在2017年年内BlueField营收的迅猛增长身上。"

BlueField产品将于2017年开始正式投放市场。
Mellanox公司指出:"BlueField系统芯片家族通过连续网状网络、DDR4内存控制器、多个支持10/25/40/50/100 Gbit每秒的以太网/InfiniBand端口以及一套具备多端口且支持EP SR-IOV与RC功能的PCIe Gen 3.0/4.0集成化PCIe交换机共同实现了一组64位ARMv8 A72计算核心的彼此互连。该系统芯片主要面向那些将数据层与控制层服务相结合以实现存储与网络功能的I/O敏感型与计算敏感型应用。"
BlueField参数表中提到了存储加速能力:"存储应用将实现更出色的性能表现与更低延迟水平,同时迎来先进的NVMe over Fabrics与更高传输带宽。其嵌入式PCIe交换机能够帮助客户建立起独立存储设备。标准块与文件访问协议能够封装RoCE以实现更高存储访问性能。而计算与存储网络间的合并则通过多架构网络带来出色的性价比优势。在硬件存储加速基础之上,各系统芯片ARM核心还为各类存储应用带来显著的计算资源助益,具体包括NVMf target、Ceph、iSER、Lustre、iSCSI/TCP载荷、闪存转换层、RAID重构、数据压缩/解压以及重复数据删除等等。"
因此,我们可以设想,未来采用BlueField系统芯片的外部存储阵列将能够把自身转化为一套网络访问延迟杀手。希捷公司的DotHill与ClusterStor阵列将使用这项技术,Nexsan、戴尔Compellent阵列、HDS VSO等方案也很可能做出同样的选择。2017年到2018年很可能成为NVMeF向光纤通道与iSCSI存储阵列发起全面挑战的一年。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。