— 经过 AMD 验证的解决方案可为 ODM 合作伙伴提供实现 AI 推理、传感器融合、工业互联、控制及可视化的简化路径 —
2024 年 2 月 6 日,加利福尼亚州圣克拉拉—AMD(超威,纳斯达克股票代码:AMD )今日宣布推出 AMD Embedded+,这一全新的架构解决方案将 AMD Ryzen™(锐龙)嵌入式处理器和 AMD Versal™自适应 SoC 结合到单块集成板卡上,从而提供了可扩展且高能效的解决方案,为原始设计制造商( ODM )合作伙伴加速产品上市进程。
Embedded+ 集成计算平台经过 AMD 验证,可助力 ODM 客户缩短认证和构建时间以便更快进入市场,而无需耗费额外的硬件和研发资源。采用 Embedded+ 架构的 ODM 集成支持使用通用软件平台开发低功耗、小尺寸规格及长生命周期的设计,适用于医疗、工业以及汽车应用。
AMD 工业、视觉、医疗和科学市场高级总监 Chetan Khona 表示:“在自动化系统中,传感器数据的价值会随时间推移而递减,而这些数据必须根据尽可能最新的信息运行,才能实现最低时延和确定性响应。在工业和医疗应用中,许多决策需要在几毫秒内做出。Embedded+ 能最大限度发挥合作伙伴和客户数据价值,其高能效和高性能算力使合作伙伴与客户能够专注于满足客户和市场需求。”
在同类产品中,Embedded+ 架构率先将领先的 AMD x86 计算与集成显卡和可编程硬件相结合,用于关键的 AI 推理和传感器应用。自适应计算在确定性、低时延处理方面表现出色,而 AI 引擎则能够提升高每瓦性能推理。锐龙嵌入式处理器包含高性能“ Zen ”核心和 Radeon™ 显卡,还可提供极为卓越的渲染和显示选项,提升 4K 多媒体体验,同时,内置的视频编解码器可用于 4K H.264/H.265 编解码。
低时延处理和高每瓦性能推理的结合可为关键任务实现高性能,包括将自适应计算与灵活的 I/O、用于 AI 推理的 AI 引擎以及 AMD Radeon 显卡实时集成到单个解决方案中,发挥每项技术的最大优势。
Sapphire Technology 推出首款 AMD Embedded+ ODM 解决方案
Embedded+ 还支持系统设计人员从基于 Embedded+ 架构的 ODM 板卡产品生态系统中进行选择,并扩展其产品组合,从而提供最适合客户目标应用的性能和功耗配置。
首款基于 Embedded+ 架构的 ODM 解决方案为 Sapphire Edge+ VPR-4616-MB,这是一款来自 Sapphire Technology 的低功耗 Mini-ITX 主板。它采用锐龙嵌入式 R2314 处理器和 Versal AI Edge VE2302 自适应 SoC,以低至 30W 的功耗提供了全套功能。此外,VPR-4616 还适用于全系统,包括内存、存储、电源和机箱。
Sapphire Technology 全球营销高级副总裁 Adrian Thompson 表示:“借助采用经过验证且可靠的计算架构,我们得以集中资源用于加强产品其他方面,进而缩短产品上市进程并降低研发成本。Embedded+ 是一款出色的简化平台,可用于构建具备领先性能和功能的解决方案。”
Sapphire Technology 的 Embedded+ 认证 VPR-4616-MB 将于发布之时即刻可供客户进行采购。
相关资源
· 进一步了解 AMD Embedded+
· 购买 Sapphire Edge+ VPR-4616-MB
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。