模型效果速度 价格(元/百万token)输入输出适用于视频理解、Grounding、GUI Agent等高复杂度的场景,与Doubao-1.5-thinking-vision-pro相比,在教育、图像审核、巡检与安防和AI搜索问答等场景下展现出更强的通用多模态理解和推理能力,支持 256k 上下文窗口,输出长度支持最大 64k tokens。
最大上下文长度:256k
最大输入长度:224k
最大思维链内容长度:32k
可配置最大回答长度:32k
默认最大回答长度:4k
条件 | 输入 | 输入命中缓存 | 输出单价 | 缓存存储 | 输入单价[批量] | 输入命中缓存单价[批量] | 输出单价[批量] |
|---|---|---|---|---|---|---|---|
输入长度 [0, 32] | 0.80 | 0.16 | 8.00 | 0.017 | 0.40 | 0.16 | 4.00 |
输入长度 (32, 128] | 1.20 | 0.16 | 16.00 | 0.017 | 0.60 | 0.16 | 8.00 |
输入长度 (128, 256] | 2.40 | 0.16 | 24.00 | 0.017 | 1.20 | 0.16 | 12.00 |
下面是计费项的简单说明,具体请参阅模型服务价格。
- 输入输出价位按照输入长度来定档,举例,在线推理场景,当输入长度为 16k ,则输入单价为0.8 元/百万 token,输出单价为8 元/百万 token。
- 使用在线推理的上下文缓存能力,产生命中缓存的输入折后费用、创建的缓存存储费用。
- 使用批量推理,产生输入[批量]费用、命中透明缓存的输入折后费用、输出[批量]费用。
doubao-seed-1.6-vision
速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。
支持使用 thinking 参数控制模型是否开启深度思考模式。默认为开启状态。详细使用请参见 开启关闭深度思考文档。
详细使用请参见 设置模型输出长度限制。