实时音视频
为智能体接入知识库(如私有数据、领域专业知识等),使其在生成回复时能够基于知识库中的信息,生成更精准、更相关的回复。不同模型类型,知识库的接入方式不同。
支持通过 MCP Server 来调用知识库工具。火山引擎已在 MCP MarketPlace 中提供了开箱即用的知识库 MCP,可直接集成使用。具体接入方式,请参见通过 MCP 接入 Viking 知识库。
若使用 Coze 平台的智能体,知识库管理和 RAG 逻辑都在 Coze 平台内部完成。
StartVoiceChat 接口时,LLMConfig 部分需注意如下关键配置:
Mode:设置为 CozeBot,指定使用 Coze 平台。BotId:填入已配置知识库的 Coze 智能体 ID。请求示例(LLMConfig 部分):
"LLMConfig": { // 大模型配置 - 使用Coze平台 "Mode": "CozeBot", "CozeBotConfig": { "Url": "https://api.coze.cn", // Coze API 固定地址 "BotId": "YOUR_COZE_BOT_ID", // 已配置知识库的 Coze 智能体 ID "APIKey": "YOUR_COZE_API_KEY", // 你的Coze API访问密钥 (PAT或OAuth token) "UserId": "user_for_coze_conversation_context", // 与智能体对话的用户ID,由你自己定义 "HistoryLength": 5, // 可选, 保留的历史对话轮数,默认为3 "Prefill": false, // 可选, 是否提前将ASR中间结果送入LLM,默认为false "EnableConversation": false // 可选, 是否将上下文存储在Coze平台,默认为false } }
支持通过 MCP Server 来调用知识库工具。火山引擎已在 MCP MarketPlace 中提供了开箱即用的知识库 MCP,可直接集成使用。具体接入方式,请参见通过 MCP 接入 Viking 知识库。