基于扣子编程的内置集成功能,所有扣子用户均可在开发智能体、应用和工作流时,为项目接入豆包、DeepSeek 和 Kimi 等主流供应商的 AI 模型,同时快速集成数据库、存储、联网搜索等能力。
说明
扣子的大语言模型根据模型推理时消耗的 token 数量计费,计费公式如下:
模型费用 🟰 输入单价 ✖️ (输入token ➖ 缓存命中token) ➕ 缓存命中单价 ✖️ 缓存命中token ➕ 输出单价 ✖️ 输出token
在大语言模型中,token 是文本处理的基本单位,token 可以是单词、字符、子词片段或其他形式的文本片段,具体的划分方式取决于模型使用的分词算法,所以 token 的计算和处理方式可能会根据模型的具体架构和设计而有所不同。
为项目接入大语言模型内置集成后,项目将支持大语言模型调用能力,根据模型消耗的 token 数量计算并收取费用。每个模型 token 的单价不同,具体如下:
模型名称/计费项 | 条件(千 tokens) | 输入/输出/缓存命中 | 单价 | |
|---|---|---|---|---|
资源点结算 | 现金结算 | |||
Doubao-Seed-1.6-Lite | 输入长度 [0, 32] | 输入 | 0.3 | 0.0003 |
输出 | 2.4 | 0.0024 | ||
缓存命中 | 0.06 | 0.00006 | ||
输入长度 (32, 128] | 输入 | 0.6 | 0.0006 | |
输出 | 4 | 0.004 | ||
缓存命中 | 0.06 | 0.00006 | ||
输入长度 (128, 256] | 输入 | 1.2 | 0.0012 | |
输出 | 12 | 0.012 | ||
缓存命中 | 0.06 | 0.00006 | ||
Doubao-Seed-1.6-Vision | 输入长度 [0, 32] | 输入 | 0.8 | 0.0008 |
输出 | 8 | 0.008 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (32, 128] | 输入 | 1.2 | 0.0012 | |
输出 | 16 | 0.016 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (128, 256] | 输入 | 2.4 | 0.0024 | |
输出 | 24 | 0.024 | ||
缓存命中 | 0.16 | 0.00016 | ||
Doubao-Seed-1.6-Thinking | 输入长度 [0, 32] | 输入 | 0.8 | 0.0008 |
输出 | 8 | 0.008 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (32, 128] | 输入 | 1.2 | 0.0012 | |
输出 | 16 | 0.016 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (128, 256] | 输入 | 2.4 | 0.0024 | |
输出 | 24 | 0.024 | ||
缓存命中 | 0.16 | 0.00016 | ||
Doubao-Seed-1.6 | 输入长度 [0, 32] 且 | 输入 | 0.8 | 0.0008 |
输出 | 2 | 0.002 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 [0, 32] 且 | 输入 | 0.8 | 0.0008 | |
输出 | 8 | 0.008 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (32, 128] | 输入 | 1.2 | 0.0012 | |
输出 | 16 | 0.016 | ||
缓存命中 | 0.16 | 0.00016 | ||
输入长度 (128, 256] | 输入 | 2.4 | 0.0024 | |
输出 | 24 | 0.024 | ||
缓存命中 | 0.16 | 0.00016 | ||
Doubao-Seed-1.6-Flash | 输入长度 [0, 32] | 输入 | 0.15 | 0.00015 |
输出 | 1.5 | 0.0015 | ||
缓存命中 | 0.03 | 0.00003 | ||
输入长度 (32, 128] | 输入 | 0.3 | 0.0003 | |
输出 | 3 | 0.003 | ||
缓存命中 | 0.03 | 0.00003 | ||
输入长度 (128, 256] | 输入 | 0.6 | 0.0006 | |
输出 | 6 | 0.006 | ||
缓存命中 | 0.03 | 0.00003 | ||
Kimi-K2 | ➖ | Kimi-K2推理(输入) | 4 | 0.004 |
➖ | Kimi-K2推理(输出) | 16 | 0.016 | |
➖ | Kimi-K2 推理(缓存-命中) | 0.8 | 0.0008 | |
DeepSeek-V3.2 | 输入长度 [0, 32] | DeepSeek-V3.2推理-32k(输入) | 2 | 0.002 |
DeepSeek-V3.2推理-32k(输出) | 3 | 0.003 | ||
DeepSeek-V3.2推理(缓存-命中) | 0.4 | 0.0004 | ||
输入长度 (32, 128] | DeepSeek-V3.2推理-128k(输入) | 4 | 0.004 | |
DeepSeek-V3.2推理-128k(输出) | 6 | 0.006 | ||
DeepSeek-V3.2推理(缓存-命中) | 0.4 | 0.0004 | ||
DeepSeek-R1 | ➖ | DeepSeek-R1推理(输入) | 4 | 0.004 |
➖ | DeepSeek-R1推理(输出) | 16 | 0.016 | |
➖ | DeepSeek-R1推理(缓存-命中) | 0.8 | 0.0008 | |
为项目接入生图模型内置集成后,项目将支持图片生成功能,根据生成图片的张数计算并收取费用。生图模型的单价如下:
模型名称/计费项 | 计费项 | 单价 | |
|---|---|---|---|
资源点结算 | 现金结算 | ||
Doubao-Seedream-4.5 | 文生图-Seedream 4.5 | 250 | 0.25 |
图生图-Seedream 4.5 | 250 | 0.25 | |
为项目接入语音大模型内置集成后,项目将支持语音合成、语音识别功能,根据语音合成的总字符数或语音识别的音频时长计算并收取费用。语音大模型的单价如下:
说明
计费项 | 单价 | |
|---|---|---|
资源点结算 | 现金结算 | |
大模型录音文件识别(极速版) | 4500 资源点/小时 | 4.5 元/小时 |
豆包语音合成2.0-系统音色文字转语音字数 | 0.3 资源点/字符 | 0.0003 元/字符 |
为项目接入联网搜索集成后,项目将支持联网搜索功能,根据搜索 API 的调用次数计算并收取费用。联网搜索的单价如下:
计费项 | 单价 | |
|---|---|---|
资源点结算 | 现金结算 | |
联网搜索 | 20 | 0.02 |