5月24-25日,以“释放数据要素价值 发展新质生产力”为主题的第七届数字中国建设峰会于福州盛大召开,各领域数字新成果在展览体验区悉数亮相,各行业论坛和对话精彩纷呈。紫光集团旗下新华三集团受邀参会并亮相展会,全面展示了赋能数字中国建设的全栈能力及前沿技术创新成果。紫光集团董事长李滨,紫光股份董事长、新华三集团总裁兼首席执行官于英涛受邀出席活动并参加开幕式,与多方嘉宾齐聚榕城,共襄数字盛会。
紫光股份董事长、新华三集团总裁兼首席执行官于英涛
24日下午,于英涛在大会主论坛作了题为《加速数据价值涌现 助力数字中国发展》的主旨演讲,分享了在AIGC时代背景下,新华三对数字经济发展新机遇、数字产业发展新未来的深度思考。他提到,近年来,我国持续加“数”奔跑、乘“数”而上,数据作为新型生产要素,已经在政府及金融、医疗、教育、交通、能源等众多场景发挥乘数效应,数字经济、数字产业已经成为了我国最亮眼的一张“金名片”。当前,大模型牵引下的数据应用,进一步开启了科技与想象的融合之旅,为“数据要素×”提供了无限可能。作为新一代信息通信领域的领军企业,新华三持续强化技术、产品和应用创新,聚焦数据治理、安全防护、数据训练、场景应用“四向发力”,赋能数据要素更好地“动起来、用起来”,加速数据价值涌现。作为数据应用全栈能力的提供者,大模型场景落地的精耕践行者,新华三将继续与相关各方一道,以数据为彩笔,以场景为画布,共绘数字中国产业发展壮美蓝图。
在数字中国建设峰会现场体验区,新华三以“有数 有AI”为主题,从“AI in ALL”和“AI for ALL”两方面充分展示了数字化全栈能力,尽显夯实筑牢数字底座的坚实技术实力,收获了广泛关注。
新华三集团展区盛况
在深化“AI in ALL”模块,现场观众可以了解到新华三集团深度布局“云-网-安-算-存-端”全产业链的产品及全栈领先的灵犀智算解决方案,体验到新华三如何释放算力×联接的倍增效应,以及其在算力多元化、联接标准化方面的差异化能力。
而在加速“AI for ALL”模块,新华三集团以AI赋能垂直行业,以百业灵犀私域大模型为依托,通过“小AI在身边”、“写作助手”、“灵犀智画”等互动体验,充分体现了大模型应用从生成式场景向分析、决策式场景的融合互补。观众还可以在现场了解到新华三在数字政府、智慧医疗、智慧教育、智能工厂等百行百业深耕AI技术创新的数字化转型实践。
除了在数字中国建设峰会现场体验区的惊艳亮相,新华三集团还参加了数据标准化和数据基础设施分论坛、数字社会分论坛-数字教育专场,与各界专家及企业代表展开深入的思想碰撞。新华三集团高级副总裁、技术委员会副主席刘新民在数据标准化和数据基础设施分论坛分享了当前数据基础设施发展的现状和挑战,并表示数据基础设施建设应重点聚焦5个方面——构建高品质数据联接;建设多样化异构算力;聚焦主动安全数据流通;加强智能能耗治理;开放标准体系,共建生态。
新华三集团高级副总裁、技术委员会副主席刘新民(左一)参加圆桌对话环节
此外,新华三集团高级副总裁、运营商BG总裁何宁受邀出席中国移动人工智能生态大会主旨论坛,并参与“三大产业融通基地”发布。作为中国移动的合作伙伴,新华三将与中国移动一起“AI赋能,智筑国基”。
新华三集团高级副总裁、运营商BG总裁何宁(右六)出席三大产业融通基地发布仪式
峰会期间,在福州著名的三坊七巷历史街区,各地政府领导、行业专家和企业代表齐聚“有福之州·对话未来”系列特色活动,以互动、轻松、趣味为主基调,为数字中国建设建言献策。在四场对话论坛里,新华三将以前沿的洞察与各界伙伴围绕算网融合、智慧医疗、企业转型、商业生态等领域展开深入交流,构想数字经济的未来前景,为数字中国高质量建设注入澎湃动能。
新华三集团“有福之州·对话未来”系列活动
随着国家数据局正式成立并发布“数据要素×”三年行动计划,以及“人工智能+”行动被列入政府工作报告,数据已经作为新型生产要素,充分发挥着放大、叠加、倍增作用,数字基础设施建设对于强化高水平数字化的支撑作用愈发重要,数字化发展已进入又一个新阶段。新华三集团将继续秉持“精耕务实,为时代赋智慧”的理念,在产品和解决方案上深化“AI in ALL”,面向百行百业加速践行“AI for ALL”,发挥自身在算力和联接领域的核心优势,放大智算资源价值,乘AI之风,不断精研新一代数字技术,释放数据要素价值,构建和激活新质生产力,推动数字中国建设走深向实。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。