简单透明的定价
一个 API 接入所有主流大模型,订阅享更高配额,按量付费用多少算多少
1 Token ≈ 1.5 个中文字符
加载中...
为什么选择我们?
对比各平台 Coding Plan 定价,一个订阅全量模型,配额更高、能力更强
| 对比项 | 千木 | 百炼 Coding | 智谱 Coding | Kimi Coding |
|---|---|---|---|---|
| 可用模型 | 20+ 模型 | 仅部分模型 | 仅 GLM 系列 | 仅 K2.5 |
| API 调用 | ||||
| 智能路由 | − | − | − | |
| 语义缓存 | − | − | − |
对比总结:其他平台仅提供单一厂商模型和基础 API 调用,千木(SilvaMux)聚合 20+ 主流大模型,并提供智能路由和语义缓存等高级能力,帮助开发者在一个订阅内获得更强大的模型接入体验。
配额消耗规则
模型消费系数不同模型消耗不同配额
每次请求基础消耗为 1.0,实际消耗 = 基础 × 模型系数 × 时段系数 × 请求大小系数
| 系数 | 模型 |
|---|---|
| 1.0x | 性价比模型(默认) |
| 2.0x | 旗舰模型 |
时段系数不同时段费用不同
凌晨和深夜请求享受折扣,高峰时段系数略高
| 时段 | 时间 | 系数 |
|---|---|---|
| 凌晨 | 00:00–06:00 | 0.6x |
| 上午 | 06:00–09:00 | 1.0x |
| 工作时间 | 09:00–18:00 | 2.0x |
| 晚间高峰 | 18:00–22:00 | 1.2x |
| 深夜 | 22:00–24:00 | 1.0x |
请求大小系数大请求消耗更多配额
按请求总 Token 数分档,小请求享受折扣
| 档位 | Token 范围 | 系数 |
|---|---|---|
| 小型 | ≤ 1,000 | 1.0x |
| 中型 | ≤ 8,000 | 1.5x |
| 大型 | ≤ 32,000 | 2.0x |
| 超大型 | > 32,000 | 4.0x |
消费计算公式
实际消耗 = 1.0 × 模型系数 × 时段系数 × 请求大小系数
示例:凌晨使用 DeepSeek V3.2 发送 500 Token 请求 → 1.0 × 0.6 × 1.0 = 0.6 配额单位
常见问题
如何开始使用 API?
注册账号后,在控制台创建 API Key,将 Base URL 改为我们的网关地址即可。如果你已经使用 OpenAI SDK,只需修改 base_url 参数,无需更改其他代码。
订阅和按量付费怎么选?
如果你的月用量稳定且较大,订阅套餐更划算——配额更高、单价更低。如果用量波动大或刚开始评估,PAYG 按量付费更灵活,用多少付多少。
PAYG 的梯度价格怎么计算?
每个模型按单次请求的 Token 总数(输入 + 输出)分档计价,但不同模型的档位 breakpoints 和单价完全独立。例如 GLM-4.5 Air 仅分 2 档(≤1K / 无上限),而 GPT-4o 分 4 档(≤1K / ≤8K / ≤32K / 无上限)。同一模型的输入和输出价格也可不同。请求完成后自动按对应档位的百万 Token 单价计费,无需手动选择。
配额消耗是怎么计算的?
每次请求消耗 = 1.0 × 模型系数 × 时段系数 × 请求大小系数。例如凌晨使用经济型模型发送小请求,消耗仅为 0.3 个配额单位。详见上方「配额消耗规则」。
配额用完了怎么办?
系统会返回 HTTP 429 状态码。你可以等待配额窗口重置(5h / 7d / 月),或升级到更高套餐获取更多配额。季付和年付 Pro 套餐提供更高的配额上限。
支持流式输出吗?
支持。API 完全兼容 OpenAI 的 SSE 流式输出格式,设置 stream: true 即可。