随着大模型技术的快速发展与广泛应用,智能客服迎来了前所未有的发展机遇。晓多科技凭借认知智能 SaaS 领域的深厚积累与跨行业实践经验,正积极探索大模型在智能客服领域的无限可能。
晓多科技智能客服广泛应用于电商、电信、政务、教育等多领域,覆盖全国50多城。面对复杂销售场景,晓多科技注意到智能客服在岗前、岗中均有性能提升的需求。利用大模型的强上下文理解能力、总结能力和自然语言多轮对话的特性,帮助客服完成从浏览推荐到下单付款的购物全生命周期旅程。
为此,晓多科技不仅自研“晓模型 XPT”,还携手火山引擎,依托豆包大模型,进一步提升“AI 训练场”与“全渠道智能知识库”的智能化,全面升级智能客服能力。

成都晓多科技有限公司成立于 2014 年,是以智能对话为核心的认知智能 SaaS 产品和行业数智化解决方案服务商。
图片及内容来源于晓多科技官网
更强模型、更低价格、更易落地,豆包大模型助力智能客服场景强化
火山引擎为晓多科技提供了由字节跳动研发的豆包大模型,在智能客服的岗前、岗中等环节,应用大模型能力为服务质量提效。
01
更高 TPM、RPM 支持,
AI 训练场从容应对高并发
客服需应对多样用户需求,岗前培训关键在于培养快速洞悉客户诉求的能力,这是保障服务质量的基石。晓多科技推出的 AI 训练平台,精准复刻业务场景,利用大模型模拟多角色、多需求用户交互,促使人工客服通过密集训练提升应答效率与精准度,强化服务能力。然而,此系统对模型的并发处理能力及推理速度提出了严苛要求。

覆盖多种销售培训方案
火山引擎为晓多科技提供的豆包大模型由字节跳动自主研发,经过字节跳动内部50+业务场景实践验证,千亿级日 tokens 持续打磨,具有更强性能,初始支持 TPM 较之前提升6倍、初始支持 RPM 提升2000倍,为高并发状态下的业务稳定性提供了有力保障。同时,豆包大模型的角色扮演能力,也以更符合中文习惯和买家的说话方式,赢得了晓多科技的认可。
豆包大模型以技术驱动的极致性价比,助力晓多科技以更低的价格对智能客服进行训练,对智能客服进行持续打磨。
02
更精准用户需求洞察,
将全渠道智能知识库能力最大化
岗中阶段,精准洞察并满足用户需求,是对智能客服能力的终极试炼。而传统机器人将产品信息配置成表格后读取的做法不仅调用时间长,多个售卖渠道配置表也须分别维护,成本极高。晓多科技推出的“多策”全渠道智能知识库,依托大模型,一键部署,全面覆盖,以智能化、自动化手段显著提升客服效率。

全渠道统一商品知识库
豆包大模型经深度优化,具有更强的分析能力,无缝连接知识库与用户,构建高效沟通桥梁。客服转述用户的提问后,豆包大模型通过分析和精准理解,将问题转化为知识库查询可用的关键字,以便能快速检索到相关内容。随后,基于对用户需求的深刻理解,豆包大模型可在众多内容中将用户最为关心的部分以高亮显示,进行重点呈现,并支持多个不同产品之间的对比。通过两次“转译”让用户以口语化的自然语言提出需求,既收获对核心需求的精准回复,节约对话时间的同时,还提高了用户的满意度和下单率。
03
专业团队支持,
让大模型更易落地
大模型从部署到应用,需要经历一系列优化与精调,在此过程中专业的服务支持将起到事半功倍的效果。火山引擎团队携手晓多科技,通过 PE 优化、精准模型选型、前置高并发保障等措施,清除应用障碍,加速大模型落地进程。

全渠道智能商品知识库
提示词(prompt)设计是提升大模型输出的关键。火山引擎行业团队与晓多科技紧密合作,采用标签化替代自然语言、设定结构化输出模板、创新实践示例、任务定制最优参数等策略,深度优化提示词,显著提升大模型输出的质量和稳定性。特别是在豆包通用模型 Doubao-pro-32k 版本中,针对超 5k 字的文本场景,有效解决了应答延迟问题,实现了用户体验的全面升级。
培训周期更短、客服能力更强,大模型加持下获得效率服务双升级
在火山引擎提供的豆包大模型帮助下,晓多科技的“AI 训练场”场景获得了更高的并发保障,同时成本也优化了50倍以上,实现了效率成本双提升。通过使用豆包大模型能力强化的“AI 训练场”,晓多科技不仅将客服培训周期缩短了50%以上,还通过更多元化的顾客模拟,训练出能力超越常规培训的客服团队,推动销售转化率上升了3%-5%。
目前,晓多科技在智能客服岗前、岗中等场景中实现智能化提升,为其业务的全面升级和开拓全新商业模式打下了坚实的基础。
火山引擎作为字节跳动旗下的云服务平台,致力于成为客户数字化转型和智能化升级的有力伙伴。未来,双方希望进一步将大模型能力应用于智能客服的更多场景,让消费者享受到更为便捷与智能化的客服体验。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。