知识管理,听起来有点高大上?但它却与你我息息相关。企业员工与客户都希望能轻松获取所需信息,但大量宝贵数据却被锁定在组织内部的文档、数据库,或员工的脑海、经验中。这不仅影响工作效率,让组织难以保持一致,同时也让客户服务质量大打折扣。
明略科技推出小明助理Copilot,为企业提供了知识库和Agent两种维度的产品,帮助企业用知识全面赋能业务。在大模型的加持下,将零散的知识沉淀到AI知识库中,会带来怎样的改变?
知识库走向前台
回顾知识库的发展历程,我们可以清晰地看到技术进步所带来的巨大变革。从早期简单的文档管理和内容管理系统,到后来引入云计算和移动技术的灵活访问,再到如今融合生成式AI技术的智能化阶段,知识库工具正变得越来越强大和易用。
和传统知识库相比,大模型驱动的知识库有以下几点不同之处:
•交互方式:在使用传统知识库时,用户主要通过关键字检索,知识库给出包含关键字的文档信息;AI知识库给用户提供与文档对话的能力,大模型可以基于自然语言的语义理解,进行上下文推理,直接形成答案,从而提升人类的学习效率,优化知识交互体验。
•信息处理:传统知识库主要提供检索功能,AI知识库还可以实现摘要总结、信息提取、分类对比等复杂的信息处理任务,将知识的利用率提升到一个新高度。
•构建和维护成本:得益于预训练模型的强大能力,企业构建和维护专用知识库所需的成本和门槛也大幅降低。
在中国SaaS市场,企业知识库过去一般作为协同文档、企业云盘、项目管理等产品的一个子功能出现。大模型的出现,将知识库推向前台,有望成为一个新的入口。
有行业观点认为,在大模型的机遇下,知识库不仅仅是回答问题这样简单,很多企业管理与业务提效的本质都源于知识搜索。
在海外市场,AI+知识管理赛道已经跑出了估值22亿美元的AI独角兽Glean,该公司致力于帮助企业通过大模型实现智能搜索与知识发现,这也充分证明了市场对智能化知识管理解决方案的认可。
大模型+知识库=更可信的落地方式
为什么知识库这一常规场景受到市场关注?
答案要追溯到大模型问世初期屡遭诟病的幻觉问题。所谓幻觉,是指大模型在生成回答时捏造虚假信息或做出不合逻辑的推断。为了解决这一问题,业界主要采用了微调和RAG(检索增强生成)两种方法。
微调是针对特定行业或企业自有数据,对基础大模型进行优化,使其更好地理解和应用特定领域知识。然而,这种方法成本较高,对中小企业而言难以承担。
RAG的基本原理则是在回答用户问题之前,先联网搜索相应的知识,然后让大模型基于搜索返回的知识进行回答, 这样就能很大程度降低,甚至解决幻觉的问题。当RAG应用到企业内部时,可以通过从“联网搜索”转换为“企业知识库搜索”提升答案的准确性。由于RAG在算力和算法上门槛较低,且能有效减少模型的胡言乱语,这种将大模型与知识库结合起来的模式已成为公认的企业落地大模型的可靠路径之一。
中大型企业内部拥有海量企业文档与数据,通过AI知识库,对内可以加快知识的沉淀与员工学习效率,对外可以提高客户服务质量和规范性。
以明略科技推出的小明助理Copilot为例,小明助理Copilot的知识库功能支持用户上传多种类型的文档,通过对话形式,总结相关信息,同时提供答案来源,方便用户查看原文。用户还可以邀请其他成员共同维护和使用知识库,并对知识库的权限进行灵活管控。这一功能适用于产品FAQ、财务/人力/行政政策解答、行业报告查询等多种场景。
小明助理知识库产品界面
基于企业知识,小明助理Copilot还能为不同岗位定制专属的业务Agent,例如客服Agent、产品陪练Agent、销售陪练Agent等。这些智能助手不仅能快速响应员工的各类问询,还能主动提供有针对性的指导和建议,有效提升业务人员的工作效率和质量。此外,Knowledge Agent还可以与企业的数据系统连通,利用大模型CoT(思维链)能力,自动执行数据分析、报表生成等任务,为管理决策提供有力支持。
以知识库为支点,大模型正在撬动知识管理的深刻变革。明略科技依托于大模型技术,将推动企业知识管理从成本中心转变为业务增长引擎。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。