当今世界正在以惊人的速度产生数据,从这些数据中获取价值的能力将是决定成败的关键。基于此,英特尔公司的战略转向“以数据为中心”,构建了以数据为中心的“三驾马车”,进行了从云到网络到边缘的全面布局,从传输、存储和处理三个维度真正驱动以数据为中心的未来。
在赋能用户存储更多数据方面,英特尔提出了“数据存储金字塔”(亦称内存和存储层级)的战略模式,并通过傲腾技术 + 3D NAND存储技术组合拳的形式,实现了内存和存储业务的高速增长。如今,内存和存储已成为与英特尔处理器业务同等重要的产品线,最新数据显示,2020年Q1英特尔的存储业务销售额同比增长46%。
2020年6月,英特尔公司非易失性存储解决方案事业部副总裁,兼数据中心傲腾存储事业部总经理David Tuhy在英特尔内存和存储业务发展的最新进展线上活动中表示,2020年Q1的市场成绩之所以如此突出,傲腾存储技术起到了关键的作用。“相对内存来讲,DRAM并没有按照摩尔定律的成本/性能进行演进。相对存储来说,我们看到即便是最先进的产品——NAND SSD也开始放慢其性能增长的速度,所以基于3D Xpoint介质的傲腾技术成为内存和存储层级内新的增长引擎,一举打破了内存和存储瓶颈,使数据更靠近计算,并弥补了DRAM以及NAND SSD在容量和性能上的不足。” David Tuhy表示。
傲腾和3D NAND满足了对内存和存储层级结构中的新存储层的需求
在整个计算系统中,数据的存储金字塔一直存在瓶颈。介于内存和NAND之间的延迟、性能和容量等差距过于悬殊,让数据的价值不能有效发挥。特别是随着AI、5G、边缘计算的发展和落地,大量数据需要实时分析才能发挥数据的价值,这些需求凸显了目前在内存存储层级结构中存在的一大空白——其中,DRAM容量不够大,固态盘速度又不够快。所以英特尔提出的“数据存储金字塔”概念,并推出傲腾战略来弥补这一空白。籍此,介于DRAM和3D NAND之间的新技术——英特尔傲腾持久内存将大有作为。
目前,英特尔正在努力让傲腾持久内存在几乎所有的数据库里得到使用,并根据不同的应用和不同的数据库形式,进行大量的开发和优化。
据英特尔公司数据中心事业部产品管理高级总监Kristie Mann表示,“傲腾持久内存自发布以来,发展势头十分强劲,目前已有85%以上的概念验证转化成实际的应用部署,产生了超过200次的概念验证,同时也在诸多世界500强企业、云服务提供商以及OEM厂商和新兴服务提供商等中得到部署。”
比如说Oracle的数据库Exadata X8M应用英特尔傲腾数据中心级持久内存,在于Exadata采用复杂的远程直接内存访问(RDMA)技术,使数据库能够直接访问部署在智能共享存储服务器中的持久内存,从而绕过整个操作系统、网络和IO软件堆栈。与之前的Exadata版本相比,这可将Exadata X8M中的IO延迟减少十倍。
百度用于支持其基于云的信息流服务中的数据存储和信息检索的“Feed-Cube”的高级内存数据库,通过部署英特尔傲腾数据中心级持久内存和第二代英特尔® 至强®可扩展处理器,百度能够确保Feed-Cube的高并发性、大容量和高性能,同时降低总体拥有成本(TCO)。
百度推荐技术架构部主任架构师汪瑫表示:“通过在Feed-Cube数据库中采用英特尔傲腾数据中心级持久内存,百度能够节省成本效率,扩展内存容量,并始终能够帮助我们的信息流服务发展。”
同时在沟通会上英特尔发言人也透露代号为“Barlow Pass”的第二代英特尔傲腾数据中心级持久内存,代号为“Alderstream”的基于PCIe 4.0的第二代英特尔傲腾固态盘和用于数据中心级固态盘的144层QLC(四级单元)NAND产品也将也将于2020年下半年陆续推出。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。