模型效果速度输入输出价格(元/百万 token)deepseek-v3 由深度求索公司自研的MoE模型,多项评测成绩超越了 qwen2.5-72b 和 llama-3.1-405b 等开源模型,并在性能上和世界顶尖的闭源模型 gpt-4o 及 claude-3.5-Sonnet 不分伯仲。
最大上下文长度:128k
最大思维链内容长度:不涉及
可设置最大回答长度:16k
默认最大回答长度:4k
输入 | 输入命中缓存 | 输出单价 | 缓存存储 | 输入单价[批量] | 输入命中缓存单价[批量] | 输出单价[批量] |
|---|---|---|---|---|---|---|
2.00 | 0.40 | 8.00 | 0.017 | 1.00 | 0.40 | 4.00 |
其中使用前缀缓存会产生缓存命中、缓存存储计费;批量推理产生输入[批量]、输出[批量]费用。具体请参阅模型服务价格。
deepseek-v3
速率限制通过对给定时间段内的请求或令牌使用量设置特定上限来确保公平可靠地访问 API。
方舟 deepseek-v3-250324 模型 temperature 字段对齐DeepSeek官方的处理逻辑。
举例:您在请求中设置temperature为
1,则在模型侧会映射 temperature 值为0.3。