随着第五代英特尔至强可扩展处理器(以下简称“第五代至强”)的问世,其也成为了多年来竞争最激烈的CPU市场的一员“大将”。
面对不断变化的市场需求,芯片制造商凭借能够为边缘、云、AI和科学计算等应用场景打造根据工作负载优化的组件,也因此迎来了巨大的发展机遇。除了AMD、Ampere Computing和英伟达以外,主流云服务提供商对定制芯片的依赖性在增强,例如亚马逊的Graviton和微软的Cobalt等芯片。
在接受The Register采访时,英特尔至强产品和解决方案事业部总经理Lisa Spelman不仅展示了英特尔数据中心正在以强大的执行力稳步前行,同时也分析了市场环境的变化,以及数据中心处理器产品路线图的发展变化。
持续探索“完美”
第五代至强能够实现平均20%的性能提升,这在很大程度上要归功于增大三倍的三级缓存和简化的芯粒(chiplet)架构,该架构使用两个die而不是上一代的四个。得益于上述变化,第五代至强的核心数提升至64个,这相比于主流第四代至强平台的56个核心,有了显著的改进。
而这也源于英特尔独特的策略,长期以来英特尔始终优先考虑每个核心的性能而非核心数量,因此与AMD也有所不同。但从当下的市场变化来看,尤其是以云端使用场景为例,客户对于高核心数处理器的需求正愈发强烈。
Spelman表示,“客户几乎不会因为只考虑核心数量而不选择英特尔的产品。但在面临科学计算等对核心数量要求较高的工作负载时,具体还是要取决于客户的实际工作负载和应用程序运行需求,并考虑处理器能否更好地融入现有系统。而且有很多至强处理器的优势是参数规格表无法直接体现的。”
现阶段,英特尔也对多核处理器有所布局。Spelman指出,“我也正在推动至强产品路线图朝着更高核心数量的方向发展,因为我确实希望能够满足那些客户的需求。而且,如果一切进展顺利,英特尔的首款真正多核CPU(不包括至强融核处理器)将在核心数量和性能上都极具竞争力。”
代号为Sierra Forest的至强处理器计划将在2024年上半年推出,其最多将具备288个能效核(E-core),比Ampere One的192核多50%。性能核(P-core)处理器Granite Rapids 也将紧随其后发布,尽管现阶段已知信息优先,但可以预见的是,其也将拥有更高的核心数量、改进的性能、以及在内存和IO吞吐量上的大幅提升。
“我们正在推出性能核和能效核产品,也是源于我们对于市场发展的持续关注。”Spelman说。
加码云计算领域
随着越来越多的云服务提供商转向定制芯片,以及ARM推进其称为计算子系统(CSS)的shake-'n-bake CPU设计,英特尔也在持续加码云计算市场。
作为定制芯片的代表,亚马逊云科技拥有Graviton GPU,Trainium和Inferentia AI加速器,以及Nitro SmartNICs,但他们绝非唯一构建自有芯片的公司。在业界讨论了多年之后,微软终于推出了其Cobalt 100 CPU,该CPU的部分基于ARM的CSS构建模块,并拥有128个处理器核心。
值得关注的是微软对Arm CSS的使用,这是迄今为止Arm架构在CPU设计中最趋于完整的体现。而对于Arm来说,其目标显然是吸引更多超大规模基础设施运营商和云服务供应商以CSS作为基础,进而开发自己的定制化Arm CPU。
亚马逊云科技和微软并不是唯一选择采用ARM核心的公司。据传谷歌正在开发自己的芯片,代号为Maple,报道称其将使用Marvell开发的设计。而甲骨文虽然并未构建自己的定制CPU,但它在Ampere Computing的ARM兼容处理器上投入了大量资金。
Spelman表示,“尽管亚马逊云科技的Graviton芯片在ARM生态系统拥有“不俗表现”,但我们在云计算领域的前景也无需过于担忧。云服务提供商专注于以最有效的方式解决客户问题,这意味着即使他们有自己的产品,我们的芯片也有可能会被采用。”
英特尔的前瞻规划
尽管如期推进至强产品路线图面临挑战,但Spelman表示,一些前瞻性规划,特别是英特尔将AI加速功能适配到其CPU中的决定,已经初显成效。
Spelman指的是去年1月随着第四代至强共同推出的高级矩阵扩展(AMX)。AMX旨在加速常见的AI和机器学习推理工作负载,并减少对独立加速器的需求。这也是英特尔最新发布的第五代至强的一大特色。第五代至强也对AMX加速引擎进行了改进,并拥有更快的内存和更大的缓存。得益于此,第五代至强现在可以以更低的延迟运行更大的模型。
Spelman指出,“在异构计算时代,市场对于CPU、GPU、AI加速期等的需求都同时存在,因此我们也采用‘多条腿走路’的计划。”诚如此前披露的信息,第五代至强能够在可接受的延迟水平下承载参数量多达200亿的大语言模型。而对于参数量更大的模型来说,专门的AI加速器更为理想。
回顾过往,Spelman表示对至强团队取得的进展感到满意。“从领导者的角度来看,我现在最大的目标就是保持警惕。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。