智力程度
速度
价格(元/百万token)
输入
输出
在思考能力上进行了大幅强化, 对比 doubao 1.5 代深度理解模型,在编程、数学、逻辑推理等基础能力上进一步提升, 支持视觉理解。
最大上下文长度:256k
最大输入长度:224k
最大思维链内容长度:32k
可配置最大输出长度:16k
默认最大输出长度:4k
条件 | 输入 | 输入命中缓存 | 输出单价 | 缓存存储 | 输入单价[批量] | 输入命中缓存单价[批量] | 输出单价[批量] |
---|---|---|---|---|---|---|---|
输入长度 [0, 32] | 0.80 | 0.16 | 8.00 | 0.017 | 0.40 | 0.16 | 4.00 |
输入长度 (32, 128] | 1.20 | 0.16 | 16.00 | 0.017 | 0.60 | 0.16 | 8.00 |
输入长度 (128, 256] | 2.40 | 0.16 | 24.00 | 0.017 | 1.20 | 0.16 | 12.00 |
下面是计费项的简单说明,具体请参阅模型服务价格。
- 输入输出价位按照输入长度来定档,举例,在线推理场景,当输入长度为 16k ,则输入单价为0.8 元/百万 token,输出单价为8 元/百万 token。
- 使用在线推理的上下文缓存,产生命中缓存的输入折后费用、创建的缓存存储费用。
- 使用批量推理,产生输入[批量]费用、命中透明缓存的输入折后费用、输出[批量]费用。
doubao-seed-1.6-thinking
速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。