2024 年 3 月 19 日,加利福尼亚州圣克拉拉—AMD(超威,纳斯达克股票代码:AMD)今日宣布,其尖端自适应计算技术为索尼半导体解决方案( SSS )所选用,用于其最新汽车激光雷达( LiDAR )参考设计。 SSS 作为图像传感器技术领域的全球领导者,此次与 AMD 携手带来用于自动驾驶汽车的强大且高效的激光雷达解决方案。采用 AMD 自适应计算技术显著扩展了 SSS 激光雷达系统功能,为下一代自动驾驶解决方案提供了非凡的精度、更快的数据处理以及高可靠性。
在快速演进的自动驾驶领域,对精确可靠的传感器技术的需求从未如此强烈。激光雷达(光探测和测距)技术在为各行业实现深度感知和环境测绘方面发挥着关键作用。激光雷达能提供图像分类、分割以及目标检测数据,这些数据对于由人工智能( AI )加强的 3D 视觉感知至关重要,因为其无法仅依靠摄像头提供,尤其是在弱光或恶劣天气下。专用激光雷达参考设计通过标准化平台解决了自动驾驶汽车开发的复杂性问题,能以更高的安全性驾驭不同驾驶场景。
AMD 公司副总裁兼自适应计算事业部总经理 Yousef Khalilollahi 表示:“激光雷达技术及其 AI 增强感知功能正以非凡的速度发展,支持部署越来越多的应用。我们与索尼半导体解决方案的合作将 AMD 自适应计算集成到其激光雷达参考设计中,体现了我们致力于在关键行业领域突破技术边界并推动创新的努力。”
索尼半导体解决方案公司汽车开发部总经理 Takayoshi Ozone 表示:“此次与 AMD 的技术合作展现了我们在承诺为激光雷达应用提供尖端解决方案方面的重大飞跃。通过将 AMD 自适应计算技术融入我们的激光雷达参考设计,我们已准备好在性能、可靠性和灵活应变能力方面树立新标准。”
SSS 激光雷达参考设计采用 IMX 459 传感器,由 AMD ZynqTM UltraScale+TM MPSoC 自适应 SoC 和 ArtixTM-7 FPGA 提供支持,使汽车制造商和汽车设备供应商能够拥有一款全面的感知平台,以驾驭复杂驾驶场景并借助卓越的精度识别潜在危险。该参考设计利用 AMD 在打造可扩展且灵活应变的计算解决方案方面的专长,对 SSS 的 SPAD ToF 式距离传感器的处理能力进行了优化。这项协同合作将带来高精度、快速数据处理速度以及出色的可靠性,从而应对汽车产业日益演进的需求。SSS 和 AMD 的共同努力将加速激光雷达技术在各个行业的采用,为自动驾驶系统带来新的可能性。
相关资源
· 进一步了解索尼半导体解决方案
· 阅读 ABI Research 白皮书:《一种可扩展的自动驾驶方法》
AMD 在汽车领域
随着汽车产业创新步伐不断加快,对高性能算力、计算加速和图形技术的需求也在走强。凭借业界丰富的高性能 CPU、GPU、FPGA 和自适应 SoC 产品线,AMD 正处于这一转折点的最前沿。从车载信息娱乐系统到高级驾驶辅助系统、自动驾驶和车联网应用等功能安全关键型应用,AMD 能为汽车制造商提供芯片和软件解决方案一站式服务。如需了解更多信息,请访问 AMD 汽车专区。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。