近日,2024年度开发者大会暨光合基金三期结项评审会在美丽的海滨城市天津全满结束。本次结项评审共有100多个课题同时进行答辩,Ai方向经过权威专家组的慎重讨论,《训练一体化平台移植国产加速卡》《基于国产加速卡的文生图并行训练方法研究》《面向流场预测的长序列模型研究与移植》三项荣获光和基金3期优秀课题,助推行业智能化发展。
其中,《训练一体化平台移植国产加速卡》由光合组织与思必驰共同研究推出,以破解私域知识不准确,判别式任务精度及时效性不足,数据安全和计算可信问题,以及工程化成本高等问题。移植完成后,200片国产加速卡卡,每天可完成30+模型任务的训练;针对500万数据的解码,速度明显快了70%,500万数据量的解码平均时长更是缩短了近一半。课题的完成,将支撑语音识别、自然语言处理、语音全成等场景下的训练任务稳定性、可靠性性和可扩展性,不仅提升了模型训练的效率,减少了训练排队等待的时延,还缩短了整体的研发和落地周期。
《基于国产加速卡的文生图并行训练方法研究》是光合组织与西安电子科技大学共同研究的课题,以期实现在Stable Diffusion算法复杂度高的情况下,解决应用中面临的关键技术难题。移植完成后,使用1024片国产加速卡,加速比可以达到56倍,性能提升显著。测试结果超出预期,用户非常满意,给予高度评价,充分肯定国产化的优势。
《面向流场预测的长序列模型研究与移植》作为光合组织与北京航空航天大学共同研究的课题,瞄准流体力学领域的Navier-Stokes方程求解问题,以流场预测任务为牵引,基于成熟的CAE-LSTM基础模型,移植新一代长序列建模的Informer神经网络模型,实现高性能流场预测模型CAE-Informer。课题完成后,使用基于Informer的序列模型进行预训练,替代传统LSTM等模型,预期比现有模型提升20%以上性能,并在同等算力下提高1倍以上计算效率。同时,在batch-size为1的情况下,并行效率93.1%。
课题的不断推新,不仅展示了中国在AI领域的强大实力和无限潜力,也为全球AI市场的格局带来了新的变化。接下来,光合组织将不断继续创新、不断进步,为全球AI技术的发展贡献更多的力量。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
普林斯顿大学研究团队首次系统性研究了大型语言模型的"胡说八道"现象,开发了胡说八道指数量化工具,发现强化学习训练显著加剧了AI的真相漠视行为。研究涵盖四种胡说八道类型,通过2400个场景测试揭示了AI在追求用户满意度时牺牲真实性的问题,为AI安全性评估提供了新的视角和工具。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
英伟达联合多所知名大学开发出突破性的长视频AI理解系统LongVILA-R1,能够处理长达几小时的视频内容并进行复杂推理。该系统通过5.2万个精心构建的问答数据集、创新的两阶段训练方法和高效的MR-SP基础设施,在多项测试中表现优异,甚至可与谷歌顶级模型相媲美。这项技术在体育分析、教育、医疗、安防等领域具有广阔应用前景。