2024 年 3 月 5 日,加利福尼亚州圣克拉拉——AMD(超威,纳斯达克股票代码:AMD)今日宣布推出 AMD Spartan™ UltraScale+™ FPGA 系列,这是广泛的 AMD 成本优化型 FPGA 和自适应 SoC 产品组合的最新成员。Spartan UltraScale+ 器件能为边缘端各种 I/O 密集型应用提供成本效益与高能效性能,在基于 28 纳米及以下制程技术的 FPGA 领域带来业界极高的 I/O 逻辑单元比,较之前代产品可带来高达 30% 的总功耗下降,同时还涵盖 AMD 成本优化型产品组合中最为强大的安全功能集。

AMD 自适应和嵌入式计算事业部公司副总裁 Kirk Saban 表示:“二十五年来,Spartan FPGA 系列为一些人类最伟大的成就提供了助力,从挽救生命的自动除颤器到欧洲核子研究组织粒子加速器,不断推进人类知识边界。Spartan UltraScale+ 系列基于业经验证的 16nm 技术构建,其强化的安全性与功能、通用设计工具以及长产品生命周期将进一步增强我们市场领先的 FPGA 产品组合,并明确我们为客户提供成本优化型产品的承诺。”
灵活的 I/O 接口连接与高功效算力
Spartan UltraScale+ FPGA 针对边缘端进行了优化,可提供高数量 I/O 和灵活的接口,令 FPGA 能够与多个器件或系统无缝集成并高效连接,以应对传感器和连接设备的爆炸式增长。
在基于 28 纳米及以下制程技术构建的 FPGA 领域,该系列提供了业界极高的 I/O 逻辑单元比,具备多达 572 个 I/O 和高达 3.3 伏的电压支持,可为边缘传感和控制应用实现任意连接。业经验证的 16 纳米架构和对各种封装的支持(从小至 10x10 毫米)以超紧凑的占板空间提供了高 I/O 密度。广泛的 AMD FPGA 产品组合则提供了可扩展性,从成本优化型 FPGA 直到中端及高端产品。
通过16 纳米 FinFET 技术和硬化连接,相较于 28 纳米 Artix™ 7 系列,Spartan UltraScale+ 系列预计可降低高达 30% 的功耗。作为首款搭载硬化 LPDDR5 内存控制器和8 个 PCIe® Gen4 接口支持的 AMD UltraScale+ FPGA,该系列能为客户同时提供功率效率与面向未来的功能。
卓越的安全功能
Spartan UltraScale+ FPGA 提供了 AMD 成本优化型 FPGA 产品组合中极为卓越的安全功能。
· 保护 IP:支持后量子密码技术并具备获 NIST 批准的算法,能提供先进的 IP 保护,抵御不断演进的网络攻击和威胁。物理不可克隆功能会为每个器件提供唯一指纹,以提升安全性。
· 防止篡改:PPK/SPK 密钥支持有助于管理过期或受损安全密钥,而差异化功率分析则有助于防止侧信道攻击。器件包含永久性篡改惩罚,以进一步防止误用。
· 最大限度延长正常运行时间:增强的单事件干扰性能有助于客户进行快速、安全配置,并提升可靠性。
AMD FPGA 和自适应 SoC 全产品组合由 AMD Vivado™ 设计套件和 Vitis™ 统一软件平台提供支持,使硬件与软件设计人员能够通过一款设计人员环境进行从设计到验证,充分利用这些工具及所包含 IP 的生产力优势。
AMD Spartan UltraScale+ FPGA 系列样片和评估套件预计于 2025 年上半年问世。文档现已推出,并于 2024 年第四季度自 AMD Vivado 设计套件开始提供工具支持。
相关资源
· 进一步了解 Spartan UltraScale+ FPGA
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。