You need to enable JavaScript to run this app.
实时音视频

实时音视频

复制全文
进阶功能
接入知识库 RAG
复制全文
接入知识库 RAG

为智能体接入知识库(如私有数据、领域专业知识等),使其在生成回复时能够基于知识库中的信息,生成更精准、更相关的回复。不同模型类型,知识库的接入方式不同。

火山方舟 LLM / 第三方大 LLM

支持通过 MCP Server 来调用知识库工具。火山引擎已在 MCP MarketPlace 中提供了开箱即用的知识库 MCP,可直接集成使用。具体接入方式,请参见通过 MCP 接入 Viking 知识库

Coze 智能体

若使用 Coze 平台的智能体,知识库管理和 RAG 逻辑都在 Coze 平台内部完成。

  1. 创建一个 Coze 智能体,并为智能体配置知识库。如何为智能体添加知识?
  2. 调用 StartVoiceChat 接口时,LLMConfig 部分需注意如下关键配置:
    • Mode:设置为 CozeBot,指定使用 Coze 平台。
    • BotId:填入已配置知识库的 Coze 智能体 ID。

请求示例(LLMConfig 部分):

"LLMConfig": { // 大模型配置 - 使用Coze平台
            "Mode": "CozeBot",
            "CozeBotConfig": {
                "Url": "https://api.coze.cn", // Coze API 固定地址
                "BotId": "YOUR_COZE_BOT_ID",   // 已配置知识库的 Coze 智能体 ID
                "APIKey": "YOUR_COZE_API_KEY", // 你的Coze API访问密钥 (PAT或OAuth token)
                "UserId": "user_for_coze_conversation_context", // 与智能体对话的用户ID,由你自己定义
                "HistoryLength": 5,          // 可选, 保留的历史对话轮数,默认为3
                "Prefill": false,            // 可选, 是否提前将ASR中间结果送入LLM,默认为false
                "EnableConversation": false  // 可选, 是否将上下文存储在Coze平台,默认为false
            }
        }

第三方大模型/Agent

支持通过 MCP Server 来调用知识库工具。火山引擎已在 MCP MarketPlace 中提供了开箱即用的知识库 MCP,可直接集成使用。具体接入方式,请参见通过 MCP 接入 Viking 知识库

最近更新时间:2025.12.26 00:14:42
这个页面对您有帮助吗?
有用
有用
无用
无用