[中国,上海,2024年7月5日]昇腾人工智能产业高峰论坛2024在上海举办,会上华为正式发布昇腾大模型推理解决方案,并联合11家生态伙伴及客户发布基于昇腾大模型推理解决方案的五大场景优秀实践。
昇腾大模型推理解决方案正式发布暨五大场景优秀实践
为更好地匹配大模型的推理需求,华为基于昇腾AI基础软硬件,向业界提供使能推理应用快速开发、高效部署的大模型推理解决方案。该解决方案可通过启发式并行解码等系列化推理加速技术,实现应用吞吐最高6倍提升,满足业务SLO的同时,释放极致吞吐性能,让单位吞吐的成本更优。同时,既提供昇腾原生服务化能力,也支持对vLLM、TGI等三方服务框架的快速适配,实现应用天级上线,在满足模型表现的同时,通过极简服务适配,让业务上线时间更短。除此之外,为多机推理提供了完整的弹性推理软件栈,在满足TCO要求的同时,支持灵活弹性扩容,让推理系统面向大模型未来趋势具备更强的演进能力。以此,帮助伙伴和客户打造更贴合场景需求的推理系统。
华为携手业界伙伴和客户不断创新,加速大模型应用落地到场景。会上,华为联合京东、科大讯飞、中国移动、中电信、WPS AI、中国联通、哔哩哔哩、商汤科技、生数科技、华为小艺、华为流程IT等11家生态伙伴及客户发布了基于昇腾大模型推理解决方案的五大场景优秀实践,共同见证人工智能大模型在“文本生成、文生视图、辅助编程、终端应用、智能办公/客服”等五大场景应用启航的历史时刻。
大模型只有与应用场景相结合才能发挥最大的价值,五大场景优秀实践的发布是昇腾大模型解决方案与业界伙伴、客户的模型应用在大模型落地行业场景道路上走出的坚实一步,将为这些场景在提升工作效率、改善服务质量、推动创新发展方面提供助力,也为更多场景下的大模型应用提供了有益参考。
未来,华为将继续携手伙伴基于昇腾AI进行大模型落地实践的联合创新,加速AI走深向实,助力经济和社会发展。
好文章,需要你的鼓励
美光发布新款2600客户端QLC固态硬盘,采用自适应写入技术动态优化缓存,使QLC闪存达到TLC级写入性能。该技术通过顶层SLC缓存处理新写入数据,二级TLC缓存应对SLC满载情况,空闲时将数据迁移至QLC模式。硬盘无DRAM设计,采用Phison四通道控制器和美光276层3D NAND,提供512GB至2TB容量选择,相比竞品QLC和TLC固态硬盘,顺序写入速度提升63%,随机写入速度提升49%。
清华和AIRI研究团队提出循环一致性图像编辑方法,仅需4步即可实现高质量图像编辑,速度比传统方法快10倍。该方法通过训练AI反复练习"看图-重画"过程提升图像理解能力,结合智能引导机制确保编辑质量,在多项评测中超越现有快速方法,为AI图像编辑的普及应用奠定基础。
在AMD AI推进大会上,CEO苏姿丰展示了公司在AI硬件和软件方面的显著进展。新一代MI350系列GPU性能提升4倍,高端MI355X在内存、计算吞吐量和性价比方面均优于英伟达B200。公司计划2026年推出Helios机架级平台,ROCm 7推理性能提升3.5倍。尽管在GPU训练、TCO优势等方面表现良好,但在NIMs微服务、企业级GPU市场渗透等领域仍需加强,以进一步缩小与英伟达的差距。
中科院、北大、清华联合开发的DualTHOR平台首次为双臂人形机器人提供真实家庭环境仿真训练。该平台不仅支持双手协作任务,还引入意外机制模拟现实不确定性。实验发现现有AI模型在双手协调方面表现不佳,为未来家庭服务机器人发展指明方向。