近日,浪潮成为中国移动子公司咪咕文化科技有限公司(简称咪咕)2018年GPU服务器采购项目的最大供应商,获得亿元采购订单一半份额。浪潮将为咪咕提供涵盖创新AI服务器AGX-2、高效深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation在内的全球领先的AI计算基础架构。此次成功中标中国移动子公司咪咕,标志着浪潮在AI赋能运营商领域取得重要突破,将成为运营商AI应用的示范标杆。
咪咕是中国移动面向移动互联网领域设立的,负责数字内容领域产品提供、运营、服务的一体化专业子公司。目前, 咪咕已成为国内领先的全场景品牌沉浸平台,汇聚超过1700万+首歌曲、430万条视频、1200+路音视频直播、50万+册书刊、3万+款游戏、47万集动漫画。基于如此庞大而海量的数据,咪咕承载着中国移动大部分的人工智能业务。而为了更好的开展人工智能技术的研发与应用,咪咕投入巨资建设超大规模的人工智能线下训练平台、线上推理平台及相应的云计算平台,重点研发适用于通信行业的人脸识别、智能客服、舆情分析等AI技术和应用。
浪潮为咪咕提供了涵盖创新AI服务器AGX-2、高效深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation在内的全球领先的AI计算基础架构。AGX-2是全球首款在2U空间内高速互联集成8颗最高性能GPU加速器的服务器,在2U空间内支持部署8块NVLink或PCI-E 接口的NVIDIA Tesla P100 GPU,并在业界率先支持NVLink 2.0和NVIDIA Tesla 16GB/32GB V100。同时,AGX-2具备拓扑的灵活性可支持NVIDIA NVLink和PCIe两种GPU互联方案,采用NVIDIA NVLink时可提供GPU间高带宽低延迟互联以及高达300GB/s的吞吐量。AGX-2具备良好的I/O扩展能力,提供8块NVMe/SAS/SATA热插拔硬盘,可支持最多4块100Gbps的EDR InfiniBand接口卡的高速集群互联;AGX-2不仅支持通常的风冷散热方式,还可支持片上水冷以提供更高的计算能效比。
浪潮AI服务器AGX-2
浪潮开发的深度学习并行计算框架Caffe-MPI和人工智能深度学习管理系统AIStation,使得深度学习框架的并行效率更高,并有效降低AI集群的管理复杂度。其中,在基于国际通行的Imagenet数据集进行深度学习模型训练时,浪潮Caffe-MPI表现出良好的并行扩展性,其性能是Google最新深度学习框架TensorFlow的近两倍。而浪潮AIStation可以提供从数据准备到分析训练结果的完整深度学习业务流程,支持Caffe、TensorFlow、CNTK等多种计算框架和GoogleNet、VGG、ResNet等多种模型,支持对训练过程实时监控并可视化训练过程,支持打印每一步的损失函数值的日志、训练误差或测试误差等,支持动态分配GPU资源实现资源合理共享,实现了"一键式"部署深度学习计算环境、快速启动训练任务,实时监控集群的使用情况,合理安排训练任务,可及时发现运行中的问题,提高集群的可靠性。
此外,深入理解咪咕的AI应用、联合开展相应的POC测试、协助搭建AI训练模型、不断提出优化建议,无疑是浪潮此次成功中标咪咕的"加分项"。这些无形的"软实力"让咪咕能够更加快速的开展AI模型训练的相关研究,并为应用加速提供了良好的服务支撑。
凭借着对产品技术创新能力的重视、对AI赋能行业的深刻洞察、以及对生态建设持之以恒的投入,浪潮在AI计算市场上取得了突飞猛进的发展。现在,浪潮在中国AI计算产品领域市场份额第一,是百度、阿里和腾讯等领先科技公司AI服务器的最主要供应商,占有率达到90%。 同时,浪潮与科大讯飞、今日头条、Face++、网易、东方网力等公司在AI系统与应用方面,一直保持着深入持续的合作,帮助客户在语音、视频、图像、搜索、网络等各方面取得数量级的应用性能与计算力的大幅提升。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。