You need to enable JavaScript to run this app.
火山方舟大模型服务平台

火山方舟大模型服务平台

复制全文
推荐模型
doubao-seed-1.6-vision
复制全文
doubao-seed-1.6-vision
模型效果
★★★★★
速度
★★★★
价格(元/百万token)
≥0.8, ≥8.0
[输入], [输出]
输入
Text, Image , Video, Audio
文本, 图像, 视频
输出
Text, Image, Video, Audio
文本

适用于视频理解、Grounding、GUI Agent等高复杂度的场景,与Doubao-1.5-thinking-vision-pro相比,在教育、图像审核、巡检与安防和AI搜索问答等场景下展现出更强的通用多模态理解和推理能力,支持 256k 上下文窗口,输出长度支持最大 64k tokens。

最大上下文长度:256k
最大输入长度:224k
最大思维链内容长度:32k
可配置最大回答长度:32k
默认最大回答长度:4k

附-模型输入输出长度限制说明


模型价格

条件
(千 token)

输入
(元/百万 token)

输入命中缓存
(元/百万 token)

输出单价
(元/百万 token)

缓存存储
(元/百万 token*小时)

输入单价[批量]
(元/百万 token)

输入命中缓存单价[批量]
(元/百万 token)

输出单价[批量]
(元/百万 token)

输入长度 [0, 32]

0.80

0.16

8.00

0.017

0.40

0.16

4.00

输入长度 (32, 128]

1.20

0.16

16.00

0.017

0.60

0.16

8.00

输入长度 (128, 256]

2.40

0.16

24.00

0.017

1.20

0.16

12.00

下面是计费项的简单说明,具体请参阅模型服务价格

  • 输入输出价位按照输入长度来定档,举例,在线推理场景,当输入长度为 16k ,则输入单价为0.8 元/百万 token,输出单价为8 元/百万 token。
  • 使用在线推理的上下文缓存能力,产生命中缓存的输入折后费用、创建的缓存存储费用。
  • 使用批量推理,产生输入[批量]费用、命中透明缓存的输入折后费用、输出[批量]费用。

能力支持

模型版本

doubao-seed-1.6-vision

  • doubao-seed-1-6-vision-250815
    支持关闭思考,即支持 API 中的 thinking 字段。

模型限流

速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。

TPM:5,000,000
RPM:30,000

使用文档

视觉理解能力使用教程
供您了解如何调用该模型,包括参数如何配置以及一些典型使用示例代码,您可以基于此进行扩展。
深度思考能力使用教程
供您了解如何调用该模型,包括参数如何配置以及一些典型使用示例代码,您可以基于此进行扩展。
Responses API参数说明
供您查阅API请求以及返回参数取值范围、默认值、示例等信息。
Chat API参数的说明
供您查阅API请求以及返回参数取值范围、默认值、示例等信息。

使用说明

深度思考开关

支持使用 thinking 参数控制模型是否开启深度思考模式。默认为开启状态。详细使用请参见 开启关闭深度思考文档。

控制模型输出长度(支持 max_completion_tokens )

详细使用请参见 设置模型输出长度限制

最近更新时间:2025.08.26 15:56:07
这个页面对您有帮助吗?
有用
有用
无用
无用