近日,浪潮成为中国移动子公司咪咕文化科技有限公司(简称咪咕)2018年GPU服务器采购项目的最大供应商,获得亿元采购订单一半份额。浪潮将为咪咕提供涵盖创新AI服务器AGX-2、高效深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation在内的全球领先的AI计算基础架构。此次成功中标中国移动子公司咪咕,标志着浪潮在AI赋能运营商领域取得重要突破,将成为运营商AI应用的示范标杆。
咪咕是中国移动面向移动互联网领域设立的,负责数字内容领域产品提供、运营、服务的一体化专业子公司。目前, 咪咕已成为国内领先的全场景品牌沉浸平台,汇聚超过1700万+首歌曲、430万条视频、1200+路音视频直播、50万+册书刊、3万+款游戏、47万集动漫画。基于如此庞大而海量的数据,咪咕承载着中国移动大部分的人工智能业务。而为了更好的开展人工智能技术的研发与应用,咪咕投入巨资建设超大规模的人工智能线下训练平台、线上推理平台及相应的云计算平台,重点研发适用于通信行业的人脸识别、智能客服、舆情分析等AI技术和应用。
浪潮为咪咕提供了涵盖创新AI服务器AGX-2、高效深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation在内的全球领先的AI计算基础架构。AGX-2是全球首款在2U空间内高速互联集成8颗最高性能GPU加速器的服务器,在2U空间内支持部署8块NVLink或PCI-E 接口的NVIDIA Tesla P100 GPU,并在业界率先支持NVLink 2.0和NVIDIA Tesla 16GB/32GB V100。同时,AGX-2具备拓扑的灵活性可支持NVIDIA NVLink和PCIe两种GPU互联方案,采用NVIDIA NVLink时可提供GPU间高带宽低延迟互联以及高达300GB/s的吞吐量。AGX-2具备良好的I/O扩展能力,提供8块NVMe/SAS/SATA热插拔硬盘,可支持最多4块100Gbps的EDR InfiniBand接口卡的高速集群互联;AGX-2不仅支持通常的风冷散热方式,还可支持片上水冷以提供更高的计算能效比。
浪潮AI服务器AGX-2
浪潮开发的深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation,使得深度学习框架的并行效率更高,并有效降低AI集群的管理复杂度。其中,在基于国际通行的Imagenet数据集进行深度学习模型训练时,浪潮Caffe-MPI表现出良好的并行扩展性,其性能是Google最新深度学习框架TensorFlow的近两倍。而浪潮AIStation可以提供从数据准备到分析训练结果的完整深度学习业务流程,支持Caffe、TensorFlow、CNTK等多种计算框架和GoogleNet、VGG、ResNet等多种模型,支持对训练过程实时监控并可视化训练过程,支持打印每一步的损失函数值的日志、训练误差或测试误差等,支持动态分配GPU资源实现资源合理共享,实现了"一键式"部署深度学习计算环境、快速启动训练任务,实时监控集群的使用情况,合理安排训练任务,可及时发现运行中的问题,提高集群的可靠性。
此外,深入理解咪咕的AI应用、联合开展相应的POC测试、协助搭建AI训练模型、不断提出优化建议,无疑是浪潮此次成功中标咪咕的"加分项"。这些无形的"软实力"让咪咕能够更加快速的开展AI模型训练的相关研究,并为应用加速提供了良好的服务支撑。
凭借着对产品技术创新能力的重视、对AI赋能行业的深刻洞察、以及对生态建设持之以恒的投入,浪潮在AI计算市场上取得了突飞猛进的发展。现在,浪潮在中国AI计算产品领域市场份额第一,是百度、阿里和腾讯等领先科技公司AI服务器的最主要供应商,占有率达到90%。 同时,浪潮与科大讯飞、今日头条、Face++、网易、东方网力等公司在AI系统与应用方面,一直保持着深入持续的合作,帮助客户在语音、视频、图像、搜索、网络等各方面取得数量级的应用性能与计算力的大幅提升。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。