在实时对话式 AI 场景,你可以为智能体接入知识库(如私有数据、领域专业知识等),使其在生成回复时能够基于知识库中的信息,生成更精准、更相关的回复。不同模型平台,知识库的接入方式不同。
支持通过 MCP Server 来调用知识库工具。火山引擎已在 MCP MarketPlace 中提供了开箱即用的知识库 MCP,可直接集成使用。具体接入方式,请参见配置 MCP 接入知识库。
使用火山方舟平台的应用时,可直接为应用添加知识库插件,以接入知识库。
注意
具体实现方式如下:
LLMConfig 部分需要注意如下关键配置:
Mode:设置为 ArkV3,指定使用火山方舟平台。BotId:填入已配置知识库插件的应用 ID。若使用 Coze 平台的智能体,知识库管理和 RAG 逻辑都在 Coze 平台内部完成。
LLMConfig 部分需注意如下关键配置:
Mode:设置为 CozeBot,指定使用 Coze 平台。BotId:填入已配置知识库的 Coze 智能体 ID。请求示例(LLMConfig 部分):
"LLMConfig": { // 大模型配置 - 使用Coze平台 "Mode": "CozeBot", "CozeBotConfig": { "Url": "https://api.coze.cn", // Coze API 固定地址 "BotId": "YOUR_COZE_BOT_ID", // 已配置知识库的 Coze 智能体 ID "APIKey": "YOUR_COZE_API_KEY", // 你的Coze API访问密钥 (PAT或OAuth token) "UserId": "user_for_coze_conversation_context", // 与智能体对话的用户ID,由你自己定义 "HistoryLength": 5, // 可选, 保留的历史对话轮数,默认为3 "Prefill": false, // 可选, 是否提前将ASR中间结果送入LLM,默认为false "EnableConversation": false // 可选, 是否将上下文存储在Coze平台,默认为false } }