智力程度
速度
价格(元/百万token)
输入
输出
全新多模态深度思考模型,同时支持 thinking
、non-thinking
、auto
三种思考模式。其中 non-thinking
模型对比 doubao-1.5-pro-32k-250115
模型大幅提升。
最大上下文长度:256k
最大输入长度:224k
最大思维链内容长度:32k
可配置最大回答长度:32k
默认最大回答长度:4k
条件 | 输入 | 输入命中缓存 | 输出单价 | 缓存存储 | 输入单价[批量] | 输入命中缓存单价[批量] | 输出单价[批量] |
---|---|---|---|---|---|---|---|
输入长度 [0, 32] | 0.80 | 0.16 | 2.00 | 0.017 | 0.40 | 0.16 | 1.00 |
输入长度 [0, 32] | 0.80 | 0.16 | 8.00 | 0.017 | 0.40 | 0.16 | 4.00 |
输入长度 (32, 128] | 1.20 | 0.16 | 16.00 | 0.017 | 0.60 | 0.16 | 8.00 |
输入长度 (128, 256] | 2.40 | 0.16 | 24.00 | 0.017 | 1.20 | 0.16 | 12.00 |
下面是计费项的简单说明,具体请参阅模型服务价格。
- 输入输出价位按照输入长度来定档,举例,在线推理场景,当输入长度为 16k ,则输入单价为0.8 元/百万 token,输出单价为8 元/百万 token。
- 使用在线推理的上下文缓存能力,产生命中缓存的输入折后费用、创建的缓存存储费用。
- 使用批量推理,产生输入[批量]费用、命中透明缓存的输入折后费用、输出[批量]费用。
doubao-seed-1.6
速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。
doubao-seed-1-6-250615
支持使用 thinking 参数控制模型是否开启深度思考模式。默认为开启
状态。详细使用请参见 开启关闭深度思考文档。
详细使用请参见 设置模型输出长度限制。