模型与价格
51API 聚合了全球主流 AI 大模型,让你用一个 API Key 调用所有模型。
价格更新时间
以下模型倍率来自生产环境控制台(2026-02-28)。如控制台实时日志与本文不一致,以控制台为准。
计费说明
计费方式
51API 支持两种计费方式:
- 按 Token 计费:绝大多数对话/文本模型(ModelRatio / CompletionRatio 生效)
- 按次计费:部分绘图/任务类模型(ModelPrice 生效)
计费公式(按 Token)
不考虑缓存命中时:
最终费用 = (输入Token + 输出Token × 补全倍率) × 模型倍率 × 分组倍率1
当请求发生缓存命中时,命中部分会按缓存倍率结算(若模型未单独标注缓存倍率,默认按 1x 处理):
最终费用 = ((输入Token - 缓存命中Token) + 缓存命中Token × 缓存倍率 + 输出Token × 补全倍率)
× 模型倍率 × 分组倍率1
2
2
计费公式(按次)
最终费用 = ModelPrice × 分组倍率1
分组倍率
创建令牌时需选择分组,不同分组对应不同基础倍率:
| 分组 | 倍率 | 适用模型 |
|---|---|---|
gpt | 1x | OpenAI 系列 |
grok | 1x | xAI 系列 |
claude | 1.2x | Anthropic 系列 |
gemini | 1.4x | Google 系列 |
VIP 分组倍率
VIP 用户控制台可能展示更低分组倍率;以控制台展示为准。
支持的模型列表
以控制台为准
不同账号/供应通道可能出现小数倍率差异(例如 Vertex 型号可能显示为 -vertex 或 _vertex),请优先复制控制台里的 Model ID 与倍率。
OpenAI 系列
令牌分组:gpt
| 模型名称 | Model ID | 模型倍率 | 补全倍率 | 分组倍率 | 说明 |
|---|---|---|---|---|---|
| GPT-4o | gpt-4o | 1x | 4x | 1x | 通用多模态 |
| GPT-5 | gpt-5 | 1.5x | 8x | 1x | 高性能通用 |
| GPT-5 Thinking | gpt-5-thinking | 2.5x | 8x | 1x | 深度推理 |
| GPT-5.1 | gpt-5.1 | 1.2x | 8x | 1x | 高性价比升级款 |
| GPT-5.2 | gpt-5.2 | 1.5x | 8x | 1x | 平衡性能与成本 |
使用示例:
python
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好"}]
)1
2
3
4
2
3
4
Anthropic Claude 系列
令牌分组:claude
| 模型名称 | Model ID | 模型倍率 | 补全倍率 | 分组倍率 | 说明 |
|---|---|---|---|---|---|
| Claude Haiku 4.5 | claude-haiku-4-5-20251001 | 0.5x | 5x | 1.2x | 快速响应、低成本 |
| Claude Sonnet 4.5 | claude-sonnet-4-5-20250929 | 1.5x | 5x | 1.2x | 代码与长文本任务 |
使用示例:
python
response = client.chat.completions.create(
model="claude-sonnet-4-5-20250929",
messages=[{"role": "user", "content": "你好"}]
)1
2
3
4
2
3
4
Google Gemini 系列
令牌分组:gemini
| 模型名称 | Model ID | 模型倍率 | 补全倍率 | 分组倍率 | 说明 |
|---|---|---|---|---|---|
| Gemini 2.0 Flash | gemini-2.0-flash | 1.6x | 4x | 1.4x | 稳定通用 |
| Gemini 2.0 Flash Vertex | gemini-2.0-flash-vertex | 1.6x | 4x | 1.4x | Vertex 版本 |
| Gemini 2.5 Flash | gemini-2.5-flash | 0.4x | 8.333x | 1.4x | 当前省钱首选 |
| Gemini 2.5 Flash Vertex | gemini-2.5-flash-vertex | 1.6x | 1.8x | 1.4x | Vertex 版本 |
| Gemini 2.5 Pro | gemini-2.5-pro | 1.6x | 1.8x | 1.4x | 高质量通用 |
| Gemini 2.5 Pro Vertex | gemini-2.5-pro-vertex | 1.6x | 1.8x | 1.4x | Vertex 版本 |
| Gemini 3 Flash Preview | gemini-3-flash-preview | 3x | 4x | 1.4x | 3 代预览快速模型 |
| Gemini 3 Pro Preview | gemini-3-pro-preview | 2x | 4x | 1.4x | 3 代预览专业模型 |
| Gemini 3 Pro Preview Vertex | gemini-3-pro-preview-vertex | 3x | 4x | 1.4x | Vertex 版本 |
| Gemini 3.1 Fast | gemini-3.1-fast | 3x | 4x | 1.4x | 3.1 系列快速模型 |
| Gemini 3.1 Pro | gemini-3.1-pro | 3x | 4x | 1.4x | 3.1 系列专业模型 |
| Gemini 3.1 Thinking | gemini-3.1-thinking | 3x | 4x | 1.4x | 3.1 系列推理模型 |
使用示例:
python
response = client.chat.completions.create(
model="gemini-2.5-flash",
messages=[{"role": "user", "content": "你好"}]
)1
2
3
4
2
3
4
省钱首选
gemini-2.5-flash(0.4x)是当前最常用的低成本模型。
xAI Grok 系列
令牌分组:grok
| 模型名称 | Model ID | 模型倍率 | 补全倍率 | 分组倍率 | 说明 |
|---|---|---|---|---|---|
| Grok-3 | grok-3 | 1x | 1x | 1x | 基础通用 |
| Grok-4 | grok-4 | 1.5x | 1x | 1x | 升级通用 |
| Grok-420 Agents | grok-420-agents | 3.5x | 6x | 1x | 代理/复杂任务 |
| Grok-420 Fast | grok-420-fast | 3.5x | 6x | 1x | 高速响应 |
| Grok-420 Thinking | grok-420-thinking | 3.5x | 6x | 1x | 深度推理 |
使用示例:
python
response = client.chat.completions.create(
model="grok-4",
messages=[{"role": "user", "content": "今天有什么新闻?"}]
)1
2
3
4
2
3
4
智能路由
| Model ID | 模型倍率 | 补全倍率 | 说明 |
|---|---|---|---|
auto | 1x | 1x | 自动选择最优模型 |
按次计费(绘图)
| 模型名称 | Model ID | ModelPrice(USD/次) |
|---|---|---|
| DALL-E 3 | dall-e-3 | 0.04 |
| Imagen 3 | imagen-3.0-generate-002 | 0.03 |
TIP
按次计费模型同样会受分组倍率影响(最终费用 = ModelPrice × 分组倍率)。
全部模型速查表(按 Token)
| Model ID | 厂商 | 分组 | 模型倍率 | 补全倍率 |
|---|---|---|---|---|
gpt-4o | OpenAI | gpt | 1x | 4x |
gpt-5 | OpenAI | gpt | 1.5x | 8x |
gpt-5-thinking | OpenAI | gpt | 2.5x | 8x |
gpt-5.1 | OpenAI | gpt | 1.2x | 8x |
gpt-5.2 | OpenAI | gpt | 1.5x | 8x |
claude-haiku-4-5-20251001 | Anthropic | claude | 0.5x | 5x |
claude-sonnet-4-5-20250929 | Anthropic | claude | 1.5x | 5x |
gemini-2.0-flash | gemini | 1.6x | 4x | |
gemini-2.0-flash-vertex | gemini | 1.6x | 4x | |
gemini-2.5-flash | gemini | 0.4x | 8.333x | |
gemini-2.5-flash-vertex | gemini | 1.6x | 1.8x | |
gemini-2.5-pro | gemini | 1.6x | 1.8x | |
gemini-2.5-pro-vertex | gemini | 1.6x | 1.8x | |
gemini-3-flash-preview | gemini | 3x | 4x | |
gemini-3-pro-preview | gemini | 2x | 4x | |
gemini-3-pro-preview-vertex | gemini | 3x | 4x | |
gemini-3.1-fast | gemini | 3x | 4x | |
gemini-3.1-pro | gemini | 3x | 4x | |
gemini-3.1-thinking | gemini | 3x | 4x | |
grok-3 | xAI | grok | 1x | 1x |
grok-4 | xAI | grok | 1.5x | 1x |
grok-420-agents | xAI | grok | 3.5x | 6x |
grok-420-fast | xAI | grok | 3.5x | 6x |
grok-420-thinking | xAI | grok | 3.5x | 6x |
auto | - | - | 1x | 1x |
如何选择模型?
| 使用场景 | 推荐模型 | 理由 |
|---|---|---|
| 省钱首选 | gemini-2.5-flash | 模型倍率 0.4x,综合成本最低 |
| 日常对话 | gpt-4o | 通用稳定,质量均衡 |
| 高强度推理 | gpt-5-thinking | 深度分析能力更强 |
| 代码/长文任务 | claude-sonnet-4-5-20250929 | 补全能力强,适合长输出 |
| 快速响应 | claude-haiku-4-5-20251001 | 低倍率,响应快 |
| 代理任务 | grok-420-agents | 适合复杂 Agent 工作流 |
| Google 3.1 主力 | gemini-3.1-pro | 新一代 Pro 模型 |
| Google 3.1 推理 | gemini-3.1-thinking | 推理型任务优先 |
费用计算示例
示例 1:普通对话
使用 gpt 分组(1x)调用 gpt-4o(模型 1x,补全 4x):
- 输入:1000 tokens
- 输出:500 tokens
费用 = (1000 + 500 × 4) × 1 × 1
= 3000 单位1
2
2
示例 2:深度推理
使用 gpt 分组(1x)调用 gpt-5-thinking(模型 2.5x,补全 8x):
- 输入:1000 tokens
- 输出:500 tokens
费用 = (1000 + 500 × 8) × 2.5 × 1
= (1000 + 4000) × 2.5
= 12500 单位1
2
3
2
3
示例 3:省钱方案
使用 gemini 分组(1.4x)调用 gemini-2.5-flash(模型 0.4x,补全 8.333x):
- 输入:1000 tokens
- 输出:500 tokens
费用 = (1000 + 500 × 8.333) × 0.4 × 1.4
≈ 5166.5 × 0.56
≈ 2893.24 单位1
2
3
2
3
查看实时消耗
登录控制台,在「日志」页面可查看每笔请求的详细消耗。
