模型效果速度输入输出价格(元/百万 token)deepseek-r1 是由深度求索推出的深度思考模型。在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
最大上下文长度:128k
最大输入长度:96k
最大思维链内容长度:32k
可设置最大回答长度:32k
默认最大回答长度:4k
输入单价 | 输入命中缓存 | 输出单价 | 缓存存储 | 输入单价[批量] | 输入命中缓存单价[批量] | 输出单价[批量] |
|---|---|---|---|---|---|---|
4.00 | 0.80 | 16.00 | 0.017 | 2.00 | 0.80 | 8.00 |
其中使用前缀缓存会产生缓存命中、缓存存储计费;批量推理产生输入[批量]、输出[批量]费用。具体请参阅模型服务价格。
deepseek-r1
max_completion_tokens字段,输出超长内容。速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。
下面介绍模型对于API参数的支持情况
字段 | 类型 | 传入后行为 |
|---|---|---|
stop | String or Array | 不支持,忽略不报错。 |
frequency_penalty | Float | 不支持,忽略不报错。 |
presence_penalty | Float | 不支持,忽略不报错。 |
temperature | Float | 不支持,忽略不报错。 |
top_p | Float | 不支持,忽略不报错。 |
logprobs | Boolean | 不支持,报错。 |
top_logprobs | Integer | 不支持,报错。 |
logit_bias | Object | 不支持,报错。 |
thinking | Object | 不支持,报错。 |
response_format | Object | 暂不支持,报错。 |
详细使用请参见 设置模型输出长度限制。