近日,2024年度开发者大会暨光合基金三期结项评审会在美丽的海滨城市天津全满结束。本次结项评审共有100多个课题同时进行答辩,Ai方向经过权威专家组的慎重讨论,《训练一体化平台移植国产加速卡》《基于国产加速卡的文生图并行训练方法研究》《面向流场预测的长序列模型研究与移植》三项荣获光和基金3期优秀课题,助推行业智能化发展。
其中,《训练一体化平台移植国产加速卡》由光合组织与思必驰共同研究推出,以破解私域知识不准确,判别式任务精度及时效性不足,数据安全和计算可信问题,以及工程化成本高等问题。移植完成后,200片国产加速卡卡,每天可完成30+模型任务的训练;针对500万数据的解码,速度明显快了70%,500万数据量的解码平均时长更是缩短了近一半。课题的完成,将支撑语音识别、自然语言处理、语音全成等场景下的训练任务稳定性、可靠性性和可扩展性,不仅提升了模型训练的效率,减少了训练排队等待的时延,还缩短了整体的研发和落地周期。
《基于国产加速卡的文生图并行训练方法研究》是光合组织与西安电子科技大学共同研究的课题,以期实现在Stable Diffusion算法复杂度高的情况下,解决应用中面临的关键技术难题。移植完成后,使用1024片国产加速卡,加速比可以达到56倍,性能提升显著。测试结果超出预期,用户非常满意,给予高度评价,充分肯定国产化的优势。
《面向流场预测的长序列模型研究与移植》作为光合组织与北京航空航天大学共同研究的课题,瞄准流体力学领域的Navier-Stokes方程求解问题,以流场预测任务为牵引,基于成熟的CAE-LSTM基础模型,移植新一代长序列建模的Informer神经网络模型,实现高性能流场预测模型CAE-Informer。课题完成后,使用基于Informer的序列模型进行预训练,替代传统LSTM等模型,预期比现有模型提升20%以上性能,并在同等算力下提高1倍以上计算效率。同时,在batch-size为1的情况下,并行效率93.1%。
课题的不断推新,不仅展示了中国在AI领域的强大实力和无限潜力,也为全球AI市场的格局带来了新的变化。接下来,光合组织将不断继续创新、不断进步,为全球AI技术的发展贡献更多的力量。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。