随着大模型技术的快速发展与广泛应用,智能客服迎来了前所未有的发展机遇。晓多科技凭借认知智能 SaaS 领域的深厚积累与跨行业实践经验,正积极探索大模型在智能客服领域的无限可能。
晓多科技智能客服广泛应用于电商、电信、政务、教育等多领域,覆盖全国50多城。面对复杂销售场景,晓多科技注意到智能客服在岗前、岗中均有性能提升的需求。利用大模型的强上下文理解能力、总结能力和自然语言多轮对话的特性,帮助客服完成从浏览推荐到下单付款的购物全生命周期旅程。
为此,晓多科技不仅自研“晓模型 XPT”,还携手火山引擎,依托豆包大模型,进一步提升“AI 训练场”与“全渠道智能知识库”的智能化,全面升级智能客服能力。
成都晓多科技有限公司成立于 2014 年,是以智能对话为核心的认知智能 SaaS 产品和行业数智化解决方案服务商。
图片及内容来源于晓多科技官网
更强模型、更低价格、更易落地,豆包大模型助力智能客服场景强化
火山引擎为晓多科技提供了由字节跳动研发的豆包大模型,在智能客服的岗前、岗中等环节,应用大模型能力为服务质量提效。
01
更高 TPM、RPM 支持,
AI 训练场从容应对高并发
客服需应对多样用户需求,岗前培训关键在于培养快速洞悉客户诉求的能力,这是保障服务质量的基石。晓多科技推出的 AI 训练平台,精准复刻业务场景,利用大模型模拟多角色、多需求用户交互,促使人工客服通过密集训练提升应答效率与精准度,强化服务能力。然而,此系统对模型的并发处理能力及推理速度提出了严苛要求。
覆盖多种销售培训方案
火山引擎为晓多科技提供的豆包大模型由字节跳动自主研发,经过字节跳动内部50+业务场景实践验证,千亿级日 tokens 持续打磨,具有更强性能,初始支持 TPM 较之前提升6倍、初始支持 RPM 提升2000倍,为高并发状态下的业务稳定性提供了有力保障。同时,豆包大模型的角色扮演能力,也以更符合中文习惯和买家的说话方式,赢得了晓多科技的认可。
豆包大模型以技术驱动的极致性价比,助力晓多科技以更低的价格对智能客服进行训练,对智能客服进行持续打磨。
02
更精准用户需求洞察,
将全渠道智能知识库能力最大化
岗中阶段,精准洞察并满足用户需求,是对智能客服能力的终极试炼。而传统机器人将产品信息配置成表格后读取的做法不仅调用时间长,多个售卖渠道配置表也须分别维护,成本极高。晓多科技推出的“多策”全渠道智能知识库,依托大模型,一键部署,全面覆盖,以智能化、自动化手段显著提升客服效率。
全渠道统一商品知识库
豆包大模型经深度优化,具有更强的分析能力,无缝连接知识库与用户,构建高效沟通桥梁。客服转述用户的提问后,豆包大模型通过分析和精准理解,将问题转化为知识库查询可用的关键字,以便能快速检索到相关内容。随后,基于对用户需求的深刻理解,豆包大模型可在众多内容中将用户最为关心的部分以高亮显示,进行重点呈现,并支持多个不同产品之间的对比。通过两次“转译”让用户以口语化的自然语言提出需求,既收获对核心需求的精准回复,节约对话时间的同时,还提高了用户的满意度和下单率。
03
专业团队支持,
让大模型更易落地
大模型从部署到应用,需要经历一系列优化与精调,在此过程中专业的服务支持将起到事半功倍的效果。火山引擎团队携手晓多科技,通过 PE 优化、精准模型选型、前置高并发保障等措施,清除应用障碍,加速大模型落地进程。
全渠道智能商品知识库
提示词(prompt)设计是提升大模型输出的关键。火山引擎行业团队与晓多科技紧密合作,采用标签化替代自然语言、设定结构化输出模板、创新实践示例、任务定制最优参数等策略,深度优化提示词,显著提升大模型输出的质量和稳定性。特别是在豆包通用模型 Doubao-pro-32k 版本中,针对超 5k 字的文本场景,有效解决了应答延迟问题,实现了用户体验的全面升级。
培训周期更短、客服能力更强,大模型加持下获得效率服务双升级
在火山引擎提供的豆包大模型帮助下,晓多科技的“AI 训练场”场景获得了更高的并发保障,同时成本也优化了50倍以上,实现了效率成本双提升。通过使用豆包大模型能力强化的“AI 训练场”,晓多科技不仅将客服培训周期缩短了50%以上,还通过更多元化的顾客模拟,训练出能力超越常规培训的客服团队,推动销售转化率上升了3%-5%。
目前,晓多科技在智能客服岗前、岗中等场景中实现智能化提升,为其业务的全面升级和开拓全新商业模式打下了坚实的基础。
火山引擎作为字节跳动旗下的云服务平台,致力于成为客户数字化转型和智能化升级的有力伙伴。未来,双方希望进一步将大模型能力应用于智能客服的更多场景,让消费者享受到更为便捷与智能化的客服体验。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。