6月25日“AI Cloud Day:百度智能云大模型应用产品发布会”在北京举行。会上,百度智能云面向知识管理、客服、营销,三大企业应用场景,升级百度智能云甄知知识管理平台、百度智能云客悦智能客服平台、百度智能云曦灵数字人平台三款大模型应用产品,致力于为企业用户提供“超级知识官”重塑知识管理流程、打造覆盖客户运营全链路的“超级客服”、上岗数字人“超级主播”为营销赋能,帮助企业实现降本增收。
百度智能云副总裁喻友平表示,自今年3月百度智能云发布大模型应用产品“全家桶”以来,百度智能云已经联合南方电网科学研究院、澳门旅游局、华北电力大学、泰康保险等行业头部客户实现了一系列业务创新与突破。实践表明,知识管理、客服、营销是当前企业通过大模型应用实现增收提效的最佳路径。
“如果企业不知道落地大模型先从哪些场景切入,可以‘闭着眼睛’选择知识管理、客服、营销这三个场景。而甄知、客悦和曦灵就是我们为大家提供的最优解和‘超级员工’。”喻友平表示。

(百度智能云副总裁喻友平)
甄知:重塑企业知识管理流程,知识加工效率提升10倍
企业知识管理主要包含知识接入、加工、组织、应用四大环节。传统知识管理接入知识源有限且知识孤岛林立;知识加工受限于专家人工分类、标注,大规模知识加工难以实现;员工知识权限无法精准控制,企业核心知识安全难以保障;此外,仅支持简单的搜索功能,使得传统知识管理系统无法解答复杂问题,场景化应用难以拓展。
在知识接入方面,全新升级的甄知支持confluence、网盘及在线文档等10余个主流数据源的接入。同时,支持用户在甄知上生产各类知识,打破知识孤岛,实现知识高效协作。
在知识加工方面,甄知能够基于文心大模型实现对知识的自动化分类、抽取、生成,相比传统人工方式,大幅提升知识加工效率。
此外,甄知还能够根据组织架构,为不同业务、部门、组织、员工设置不同的知识权限,严格把控知识权限,保证企业知识安全。
在知识应用环节,甄知可实现对话式问答、对话式阅读、千人千面的知识推荐,将传统被动式的搜索知识转变为主动获取知识,准确率高达90%。
泰康保险基于甄知打造了新一代知识中台,将历史沉淀的行业知识、多源异构数据进行统一接入,并基于文心大模型实现对知识的自动挖掘、解析和加工。保险代理人、内勤工作人员等还能够通过口语化提问快速获取所需的业务知识,彻底告别企业知识生产、获取效率低等难题。
客悦:大幅提升复杂问题处理能力,1小时搭建企业专属智能客服
喻友平认为,当前,智能客服已经成为企业业务流程、民众日常生活的重要组成部分。但是在基于大模型技术重构进行之前,传统的智能客服(机器人)仅仅是“伪智能”。这些伪智能客服仅能回复固定的、预设好的问题,并且缺少拟人化的沟通体验,导致大多数问题最终仍需依靠人工客服解决,使用体验和问题处理效率很难突破瓶颈。
基于文心大模型全新升级的百度智能云客悦平台在用户意图理解、对话控制等方面实现了进一步提升,不仅能提供更加拟人化的对话体验,还大幅优化了智能客服处理复杂问题的能力,将用户问题自主解决率提升至92%,平均问答响应时延缩短到1.7秒之内,业界领先。
此外,客悦大幅降低了智能客服开发门槛,只需简单3步,最快1小时内就可以快速搭建企业专属智能客服,打破传统IT技术壁垒,即使是业务人员也能快速上手开发,同时更好地覆盖企业客户运营的全链路,敏捷响应市场需求。
“百度智能云将客悦定义为大模型时代每个企业都需要的‘超级客服’。”喻友平说。
曦灵:首创文生3D超写实数字人,2D数字分身迈进“千元”时代
本次发布会,曦灵数字人平台针对传统数字人开发周期长、落地成本高、高门槛导致的应用局限性等问题进行了全面升级,打造企业大模型时代的营销“超级主播”。
首先,曦灵在数字人生成速度方面进行了大幅强化。以3D数字人为例,曦灵在行业内首创了文生 3D 超写实数字人功能,并在会议当天正式开放公测。只需一句文字描述,就可以在最快10分钟完成数字人制作;在2D数字分身方面,升级后的曦灵能够实现“小时级”生成超高清数字分身,远超行业内的“天级”水平。
在成本方面,曦灵平台基于长期的技术积累“击穿”行业底价,加速实现数字人普惠:2D数字分身低于行业平均价格60%,将专属数字分身门槛拉低至3000档位;超写实3D数字人较此前行业最低价降低90%,业界首次将3D超写实数字人价格拉低至万元档。
喻友平表示,曦灵数字人平台在2D、3D数字人领域的超高性价比,为企业营销带来了全新的、变革性的升级机遇。无论是文旅宣传、视频制作、还是直播带货、企业导购等等,企业所涉及到的所有营销场景,都值得用曦灵进行一次全方位的重构。
好文章,需要你的鼓励
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。