在2017年英特尔推出傲腾产品的时候,有一张金字塔状的架构图就频频出现在业界。
简单来说,从计算系统诞生以来,CPU的内部缓存、DRAM、内存和HDD之间就存在着性能差异。缓存和内存能够最快速的处理数据,但是不能保留数据,HDD能够长久存储数据,但是存在读写性能和时延等问题。
因此一个理想的计算平台,存储之间需要分层,来达到与CPU和内存之间的容量和性能的平衡。把频繁访问的数据向上移动靠近内存、不经常访问的数据向下移动靠近SSD甚至于HDD。如果每个层级的容量能够达到上一层级的10倍,这样每一层级都(自下而上)逐渐保留“更热”的数据,使处理器可以快速访问这些数据。
过去几年,英特尔推出傲腾技术和英特尔3D NAND技术来填补内存和SSD之间的缺口。
如果把存储介质看做一个金字塔最高层的是DRAM,价格较高,延时也最低,主要作为缓存;
DRAM往下是就是3D XPoint基于DIMM的存储产品;3D XPoint和DRAM还是有区别,第一个容量可以做得更大,大概在10倍左右,延迟参数比DRAM差一些;
再往下是3D NAND SSD产品,在性能,密度,成本等方面都有很大区别。
但是今天Intel确认,将逐步结束Optane存储业务,不再开发未来新产品。而是转向CXL架构。
CXL(Compute Express Link),是由英特尔于2019年3月在InterconnectDay 2019上推出的一种开放性互联协议,能够让CPU与GPU、FPGA或其他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。
CXL标准有一个较大优势就是内存一致性。通俗而言就是能够添加更多的内存,来构建一个更大的内存池,而当前计算平台而言,大内存容量决定了大容量工作负载的性能,从这方面看,CXL 架构的发展对上图金字塔架构会进行重构,甚至变革。
因此在CXL 标准面前,作为并不是必须存在的傲腾存储只能退出历史舞台。
好文章,需要你的鼓励
Meta 正研发一项通过姓名识别人脸并追踪用户日常活动的“超级感知”技术,计划应用于新款智能眼镜和 AI 耳机,同时重新评估隐私策略,助推 AI 技术在穿戴产品中的应用。
Google 在 Gemini API 中推出自动缓存功能,通过复用重复数据为开发者节省最多 75% 的调用成本,有望缓解高额 API 费用问题。
Korl 利用 OpenAI、Gemini 及 Anthropic 等模型,从 Salesforce、Jira、Google Docs 等多个平台整合数据,自动生成定制化客户沟通材料,如幻灯片、演讲稿及季度业务回顾,同时保证数据安全性,并提升运营效率。
文章探讨了代理型 AI 的崛起,重点介绍微软 Azure AI Foundry 与 NVIDIA 技术如何通过强大语言模型和智能代理,实现企业级应用创新,提升运营效率与服务质量。