You need to enable JavaScript to run this app.
向量数据库VikingDB

向量数据库VikingDB

复制全文
知识库(Collection)
chat_completions(新)
复制全文
chat_completions(新)

本节将说明如何基于多轮历史对话,使用大语言模型进行回答生成

概述

chat_completions 用于向大模型发起一次对话请求,与新升级的search_knowledge 联通,可以完成标准的检索生成链路。

请求参数

参数

子参数

类型

是否必选

默认值

参数说明

Model

--

string

Doubao-1-5-pro-32k

想要用于在线生成的大模型

  • 当指定为 doubao 系列模型时默认使用系统的公共推理接入点,适合调试场景,有 tpm 限流
  • 或指定为在方舟上创建的推理接入点 ID,适合生产场景,tpm 配置可在创建推理接入点时自行调整

公共推理接入点模型可选范围见对话模型图像理解模型
私有推理接入点 ID 形如:
ep-202406040****-*****
注意当使用私有接入点时,需要配合传入 API key 进行鉴权

注:默认值可能随版本更新而变化。为确保产品效果稳定,建议用户指定模型版本

ModelVersion

--

*string

--

对话模型和图像理解模型的可选范围见对话模型图像理解模型

Thinking

--

interface{}

enabled

控制模型是否开启深度思考模式
取值范围:

  • enabled:开启思考模式,模型一定先思考后回答。
  • disabled:关闭思考模式,模型直接回答问题,不会进行思考。
  • auto:自动思考模式,模型根据问题自主判断是否需要思考,简单题目直接回答。

当前支持的模型详情见:thinking
示例:

extra_body={
         "thinking": {
             "type": "disabled",  # 不使用深度思考能力
             # "type": "enabled", # 使用深度思考能力
             # "type": "auto", # 模型自行判断是否使用深度思考能力
         }
     }

APIKey

--

*string

--

接入点 API Key
当需要使用私有模型接入点时,需传入对应 API key 进行鉴权

Messages

--

[]model.ChatMessage

--

发出消息的对话参与者角色,可选值包括:

  • system:System Message 系统消息
  • user:User Message 用户消息
  • assistant:Assistant Message 对话助手消息

多轮文本问答: 串联脚本示例可参考知识库多轮检索问答样例

[
     {"role": "system", "content": "你是一位在线客服,你的首要任务是通过巧妙的话术回复用户的问题,你需要根据「参考资料」来回答接下来的「用户问题」,这些信息在 <context></context> XML tags 之内,你需要根据参考资料给出准确,简洁的回答。"},
     {"role": "user", "content": "推荐一个适合 3 岁小孩的玩具"},
     {"role": "assistant", "content": "您好!3 岁宝宝正处于身体、智力、情感多方面快速发展的阶段,您可以看看以下几款类型的玩具:乐高积木、拼图、消防局与消防直升机套装、医疗玩具套装、儿童滑板车"}
     {"role": "user", "content": "详细介绍下乐高积木有哪些合适的系列"},
 ]

多轮图文理解:串联脚本示例可参考知识库图文问答样例

[
     {
         "role": "system",
         "content": "你是一位在线客服,你的首要任务是通过巧妙的话术回复用户的问题,你需要根据「参考资料」来回答接下来的「用户问题」,这些信息在 <context></context> XML tags 之内,你需要根据参考资料给出准确,简洁的回答。参考资料中可能会包含图片信息,图片的引用说明在<img></img>XML tags 之内,参考资料内的图片顺序与用户上传的图片顺序一致。"
     },
     {
         "role": "user",
         "content": [
             {
                 "type": "text",
                 "text": "推荐一个适合 3岁小孩的玩具"
             },
             {
                 "type": "image_url",
                 "image_url": {
                     "url": "https://ark-project.tos-cn-beijing.volces.XXX.jpeg" #从知识库中召回的 top1 图片 url
                 }
             },
             {
                 "type": "image_url",
                 "image_url": {
                     "url": "https://ark-project.tos-cn-beijing.volcess.XXX.jpeg" #从知识库中召回的 top2 图片 url
                 }
             }
         ]
     }
 ]

Stream

--

*bool

False

响应内容是否流式返回

  • false:模型生成完所有内容后一次性返回结果
  • true:按 SSE 协议逐块返回模型生成内容,并以一条 data: [DONE] 消息结束

MaxTokens

--

*int

4096

模型可以生成的最大 token 数量

注意

  • 模型回复最大长度(单位 token),取值范围各个模型不同,详细见模型列表
  • 输入 token 和输出 token 的总长度还受模型的上下文长度限制。

ReturnTokenUsage

--

*bool

False

是否返回token用量统计

Temperature

--

*float64

0.1

采样温度
控制了生成文本时对每个候选词的概率分布进行平滑的程度。取值范围为 [0, 1]。当取值为 0 时模型仅考虑对数概率最大的一个 token。
较高的值(如 0.8)会使输出更加随机,而较低的值(如 0.2)会使输出更加集中确定。通常建议仅调整 temperature 或 top_p 其中之一,不建议两者都修改。

对话模型

模型名称

可选版本

Doubao-1-5-thinking-pro

250415

Deepseek-V3-128k

250324, 241226

Deepseek-R1-128k

250528, 250120

Doubao-1-5-pro-256k

250115

Doubao-1-5-pro-32k

250115(默认), character-250715, character-250228

Doubao-1-5-lite-32k

250115

Doubao-pro-256k

241115, 240828

Doubao-pro-32k

241215, 240828, 240615, character-241215, character-240828, character-240528

Doubao-pro-128k

240628, 240515(即将下线)

Doubao-lite-32k

240828,240628, 240428(即将下线), character-250228, character-241015

Doubao-lite-128k

240828, 240428

图像理解模型

模型名称

可选版本

Doubao-seed-1-8

251228

Doubao-seed-1-6-vision

240428, 240828

Doubao-seed-1-6-thinking

250715, 250615

Doubao-seed-1-6

251015, 250615

Doubao-seed-1-6-flash

250828, 250715, 250615

Doubao-1-5-thinking-pro

m-250428, m-250415

Doubao-1-5-vision-pro

250328

Doubao-1-5-vision-lite

250315

Doubao-1-5-vision-pro-32k

250115

Doubao-vision-pro-32k

241028

响应消息

字段

类型

参数说明

Code

int

状态码

Message

string

返回信息

RequestID

string

标识每个请求的唯一标识符

Data

*ChatCompletionResult

ChatCompletionResult

ChatCompletionResult

字段

类型

参数说明

ReasoningContent

*string

推理模型生成的内容

GeneratedAnswer

*string

模型生成的回答

Usage

interface{}

token 用量统计

Prompt

*string

prompt 内容

Model

*string

模型名称

FinishReason

*string

结束原因

TotalTokens

interface{}

总 token 数量

状态码说明

状态码

http状态码

返回信息

状态码说明

0

200

success

成功

1000001

401

unauthorized

缺乏鉴权信息

1000002

403

no permission

权限不足

1000003

400

invalid request:%s

非法参数

请求示例

请先完成SDK初始化,再运行代码,详见初始化SDK
请将 main 函数中的 accessKey、secretKey 分别替换为您自己的 AK 和 SK。

package main

import (
    "context"
    "encoding/json"
    "fmt"
    "github.com/volcengine/vikingdb-go-sdk/knowledge"
    "github.com/volcengine/vikingdb-go-sdk/knowledge/model"
    "os"
    "time"
)

func main() {
    var (
       accessKey = os.Getenv("VIKINGDB_AK")
       secretKey = os.Getenv("VIKINGDB_SK")
       endpoint  = "https://api-knowledgebase.mlp.cn-beijing.volces.com"
       region    = "cn-beijing"
    )

    client, err := knowledge.New(
       knowledge.AuthIAM(accessKey, secretKey),
       knowledge.WithEndpoint(endpoint),
       knowledge.WithRegion(region),
       knowledge.WithTimeout(time.Second*30),
    )
    if err != nil {
       fmt.Printf("New client failed, err: %v\n", err)
       return
    }
    ctx := context.Background()

    // 1. Prepare messages
    messages := []model.ChatMessage{
       {
          Role:    "user",
          Content: "Hello, who are you?",
       },
    }

    // 2. Call ChatCompletion
    resp, err := client.ChatCompletion(ctx, model.ChatCompletionRequest{
       Model:    "Doubao-1-5-pro-32k", // Replace with your model endpoint
       Messages: messages,
    })
    if err != nil {
       fmt.Printf("ChatCompletion failed, err: %v\n", err)
       return
    }

    jsonData, _ := json.Marshal(resp)
    fmt.Printf("Response: %s\n", string(jsonData))
    
    //3. Call ChatCompletion Stream
    stream := true
    ch, err := client.ChatCompletionStream(ctx, model.ChatCompletionRequest{
       Model:    "Doubao-1-5-pro-32k", // Replace with your model endpoint
       Messages: messages,
       Stream:   &stream,
    })
    if err != nil {
       fmt.Printf("ChatCompletionStream failed, err: %v\n", err)
       return
    }
    // Read from channel
    for resp := range ch {
       jsonData, _ := json.Marshal(resp)
       fmt.Printf("Chunk: %s\n", string(jsonData))
    }
}
最近更新时间:2026.03.20 12:23:13
这个页面对您有帮助吗?
有用
有用
无用
无用