You need to enable JavaScript to run this app.
导航
大模型配置
最近更新时间:2025.05.29 13:46:05首次发布时间:2025.05.29 11:18:34
我的收藏
有用
有用
无用
无用

在实时对话式 AI 场景中,你需要配置大模型(LLM)能力,解析用户输入,生成智能回复,管理上下文等。RTC 提供一站式接入方案,只需在 StartVoiceChat接口配置 LLMConfig 即可完成大模型接入。本文将详细介绍不同平台的配置参数、注意事项及适用场景,帮助你根据需求选择合适的大模型方案。

火山引擎提供三种大模型接入平台,分别适用于不同场景:

  • 火山方舟平台:适用于需要调用火山引擎官方基础模型(如 Doubao、DeepSeek 等)或使用应用实验室功能(零代码组合插件)的场景,支持视觉理解、Function Calling 等高级能力。
  • Coze 平台:适用于快速搭建零代码/低代码 AI 应用的场景。
  • 第三方大模型:适用于需要集成自有大模型或特定第三方服务(如开源大模型、垂直领域专用模型)的定制化场景。

火山方舟平台

火山方舟平台是火山引擎提供的大模型服务平台,支持直接调用多种火山引擎部署的基础模型(如 Doubao、DeepSeek 等)或应用实验室功能(如零代码组合插件调用大模型)。该平台模型除支持基本文字处理能力外,还支持视觉理解能力和 Function Calling 功能。

核心配置参数

使用火山方舟平台时,StartVoiceChat.LLMConfig 结构核心配置参数如下:

完整参数及说明可参看 StartVoiceChat 接口。

参数名类型是否必填示例值说明
ModeStringArkV3大模型平台标识。使用火山方舟平台时,该参数固定取值:ArkV3
EndPointIdString选填(与 BotId 二选一)ep-22****212自定义推理接入点 ID(用于调用基础模型推理功能)。
BotIdString选填(与 EndPointId 二选一)botid****212应用 ID(用于使用方舟应用实验室功能)。
TemperatureFloat选填0.1采样温度,用于控制生成文本的随机性和创造性,值越大随机性越高。取值范围为 (0,1],默认值为 0.1
MaxTokensInteger选填1024输出文本的最大 token 限制。默认值为 1024
TopPFloat选填0.3采样选择范围。控制输出 token 多样性,值越大类型越丰富。取值范围为[0,1],默认值为 0.3
SystemMessagesString[]选填["你是小宁,性格幽默又善解人意。"]系统提示词。用于输入控制大模型行为方式的指令,定义了模型的角色、行为准则,特定的输出格式等。
UserPromptsObject[]选填[{"Role": "user", "Content": "你好"}, {"Role": "assistant", "Content": "有什么可以帮到你?"}]用户提示词,可用于增强模型的回复质量,模型回复时会优先参考此处内容,引导模型生成特定的输出或执行特定的任务。
HistoryLengthInteger选填3历史问题轮数,控制上下文存储长度。默认值为 3
ToolsObject[]选填-使用 Function calling 功能时,模型可以调用的工具列表。仅支持调用函数。该功能使用方法参看Function Calling 功能说明文档
PrefillBoolean选填false是否将 ASR 中间结果提前送入大模型,以降低延时,但会增加模型消耗。
VisionConfigObject选填-视觉理解能力配置,仅 Doubao vision 系列模型生效。该功能使用方法参看视觉理解能力说明文档

请求示例代码

你可参看以下示例,使用火山方舟平台通过自定义推理接入点进行大模型调用:

{
    "LLMConfig": {
        "Mode": "ArkV3",
        "EndPointId": "epid****212",
        "MaxTokens": 1024,
        "Temperature": 0.1,
        "TopP": 0.3,
        "SystemMessages": [
            "你是小宁,性格幽默又善解人意。你在表达时需简明扼要,有自己的观点。"
        ],
        "UserPrompts": [
            {
                "Role": "user",
                "Content": "你好"
            },
            {
                "Role": "assistant",
                "Content": "有什么可以帮到你的?"
            }
        ],
        "HistoryLength": 3,
        "Tools": [
            {
                "Type": "function",
                "function": {
                    "name": "get_current_weather",
                    "description": "获取给定地点的天气",
                    "parameters": {
                        "type": "object",
                        "properties": {
                            "location": {
                                "type": "string",
                                "description": "地理位置,比如北京市"
                            },
                            "unit": {
                                "type": "string",
                                "description": "",
                                "enum": [
                                    "摄氏度",
                                    "华氏度"
                                ]
                            }
                        },
                        "required": [
                            "location"
                        ]
                    }
                }
            }
        ]
    }
            "FunctionCallingConfig": {
                "ServerMessageUrl": "https://example-domain.com/vertc/fc",
                "ServerMessageSignature": "b46a****8ad6a",
    }
}

注意事项

EndPointId 与 BotId 区别

EndPointIdBotId 使用场景不同:
EndPointId:在需要使用模型推理功能(如直接调用部署的基础模型)时,填入 EndPointId。且仅支持自定义推理接入点,不支持预置推理接入点。
BotId:在需要使用应用实验室功能(如零代码组合插件调用大模型)时,填入 BotId。且创建应用时仅支持使用自定义推理接入点,不支持预置推理接入点。

对话上下文管理

使用火山方舟平台时,模型对话上下文生成逻辑由系统提示词(SystemMessages)、用户提示词(UserPrompts 和 UserMessages)和
历史问题轮数(HistoryLength)共同控制。具体参看火山方舟上下文管理机制

Function Calling 功能

使用 Function Calling 功能允许大模型识别用户对话中的特定需求,智能调用外部函数、API 等工具来执行它自身无法独立完成的任务,如处理实时数据检索、文件处理、数据库查询等。该功能不支持与联网插件、知识库插件同时开启。该功能详细说明参看Function Calling 功能说明文档
推荐使用 doubao-1.5 代系模型或 DeepSeek 模型,可更快收到返回结果。

视觉理解能力

仅在使用 EndPointId 调用 Doubao 大模型时支持使用视觉理解能力,且创建自定义推理接入点时需选择 vision 系列模型,如 Doubao-vision-pro-32k。该功能详细说明参看视觉理解能力说明文档

Coze 平台

Coze 平台是 AI Agent 开发平台。支持零代码/低代码快速搭建基于大模型的各类 AI 应用。

核心配置参数

使用 Coze 平台时,StartVoiceChat.LLMConfig 结构核心配置参数如下:

完整参数及说明可参看 StartVoiceChat 接口。

参数名类型是否必填示例值说明
ModeStringCozeBot大模型平台标识。固定取值 CozeBot,标识使用 Coze 平台。
CozeBotConfig.UrlStringhttps://api.coze.cn固定请求地址。该参数固定取值:https://api.coze.cn
CozeBotConfig.BotIdString73****68Coze 智能体 ID(从智能体开发页面获取)。
CozeBotConfig.APIKeyStringczu_UEE2mJn6****MHxLCVv9uQ7HCoze 访问密钥(需授权对应权限)。
CozeBotConfig.UserIdString123用户标识(用于隔离对话上下文)。
CozeBotConfig.HistoryLengthInteger选填3历史问题轮数(控制上下文存储长度)。
CozeBotConfig.PrefillBoolean选填false是否将 ASR 中间结果提前送入大模型(降低延时但增加消耗)。
CozeBotConfig.EnableConversationBoolean选填false是否使用 Coze 平台上下文管理(开启后 HistoryLength 无效)。

请求示例代码

你可参看以下示例,使用Coze 平台进行大模型调用:

{
    "LLMConfig": {
        "Mode": "CozeBot",
        "CozeBotConfig": {
            "Url": "https://api.coze.cn",
            "BotId": "73****68",
            "APIKey": "czu_UEE2mJn6****MHxLCVv9uQ7H",
            "UserId": "123",
            "HistoryLength": 3,
            "Prefill": false,
            "EnableConversation": false
        }
    }
}

注意事项

智能体发布

在使用 BotId 调用 Coze 智能体前,该智能体必须发布为 API。发布操作可参看发布智能体为 API 服务

访问密钥

你可以生成个人访问令牌以供测试。线上环境注意替换为 OAuth 访问密钥。你可根据不同的使用场景,选择不同的 OAuth 授权方式,详情参考 OAuth 应用管理

说明

创建个人访问令牌或 OAuth 应用时,你需要根据你的 Bot 使用场景勾选对应权限,否则会鉴权失败。

上下文管理

你可选择将上下文管理交由 Coze 平台管理,或由 RTC 管理。

  • RTC 管理:
    EnableConversationfalse 时,上下文由 RTC 管理,默认配置。
  • Coze 平台管理:
    EnableConversationtrue 时,上下文由 Coze 管理。此时你可以使用 Coze 平台上下文管理相关功能,如将指定内容添加到会话中。

不同平台管理上下文时控制参数不同,具体参看 Coze 平台上下文管理机制

能力限制

以下 Coze 能力, RTC 对话式 AI 场景下暂不支持:

  • 视觉理解能力
  • Function Calling 功能
  • 端插件能力
  • 动态变量能力

如需使用以上能力,可使用 Coze 服务端 + RTC SDK 方案

降低请求时延

在输入请求地址时,可使用 https://bot-open-api.bytedance.net内网域名,时延更小更稳定。

第三方大模型/Agent

火山引擎支持接入第三方大模型或 Agent,以满足需要集成自有大模型或特定第三方服务的场景。

说明

集成前需要你提供第三方大模型或 Agent 的服务请求接口,并确保该接口符合火山引擎 RTC 标准规范,否则需要对其进行改造。具体可参看接入第三方大模型或 Agent

核心配置参数

使用第三方大模型时,StartVoiceChat.LLMConfig 结构核心配置参数如下:

完整参数及说明可参看 StartVoiceChat 接口。

参数名类型是否必填示例值说明
ModeStringCustomLLM大模型平台名称。使用第三方大模型时,该参数固定取值: CustomLLM
URLStringhttps://api.***.com/v1/chat/completions第三方大模型请求地址(需 HTTPS 域名)。
ModelNameString选填name1第三方大模型名称。
APIKeyString选填pat*****123231鉴权 Token(Bearer Token 认证方式)。
TemperatureFloat选填0.1采样温度,用于控制生成文本的随机性和创造性,值越大随机性越高。取值范围为 (0,1],默认值为 0.1
MaxTokensInteger选填1024输出文本的最大 token 限制。默认值为 1024
TopPFloat选填0.3采样选择范围。控制输出 token 多样性,值越大类型越丰富。取值范围为[0,1],默认值为 0.3
SystemMessagesString[]选填["你是小宁,性格幽默又善解人意。"]系统提示词(定义模型角色、行为准则)。
UserPromptsObject[]选填[{"Role": "user", "Content": "你好"}, {"Role": "assistant", "Content": "有什么可以帮到你?"}]用户提示词,可用于增强模型的回复质量,模型回复时会优先参考此处内容,引导模型生成特定的输出或执行特定的任务。
HistoryLengthInteger选填3历史问题轮数,控制上下文存储长度。默认值为 3
FeatureString选填{"Http":true}测试标记(如 {"Http":true} 允许 HTTP 域名测试)。
PrefillBoolean选填false是否将 ASR 中间结果提前送入大模型(降低延时但增加消耗)。

请求示例代码

你可参看以下示例,使用第三方大模型/Agent进行大模型调用:

{
    "LLMConfig": {
            "Mode": "CustomLLM",
            "URL": "https://api.***.com/v1/chat/completions",
            "ModelName": "name1",
            "APIKey": "pat*****123231",
            "MaxTokens": 1024,
            "Temperature": 0,
            "TopP": 0.3,
            "SystemMessages": [
                "你是小宁,性格幽默又善解人意。你在表达时需简明扼要,有自己的观点。"
            ],
            "UserPrompts": [
                {
                    "Role": "user",
                    "Content": "你好"
                },
                {
                    "Role": "assistant",
                    "Content": "有什么可以帮到你的?"
                }
            ],
            "HistoryLength": 3
        }
}

注意事项

1. 接口验证

若需要验证第三方大模型 URL 是否符合火山引擎标准,可前往体验 Demo,点击修改 AI 设定,选择第三方模型填入 URL 进行快速验证,若验证失败可前往使用工具验证第三方LLM/Agent接口下载验证工具查看详细报错。

2. 对话上下文管理

使用符合火山接口标准的第三方大模型时,模型对话上下文生成逻辑由系统提示词(SystemMessages)、用户提示词(UserPrompts 和 UserMessages)和
历史问题轮数(HistoryLength)共同控制。具体参看第三方大模型上下文管理机制

大模型配置 FAQ

Q1:如何更换大模型配置?
A1:你需要先调用 StopVoiceChat 接口停止当前智能体任务,随后在 StartVoiceChat.LLMConfig 中传入新的大模型配置,并重新启动智能体任务。
Q2:对话过程中,一分钟前生成的结果,现在再提问,智能体已经不记得之前回答结果。
A2:可适当调大 LLMConfig.HistoryLength 参数,增大上下文存储长度。