❓ 常见问题
接入问题
Q: 报错 "404 Not Found"
原因:API 地址没有加 /v1 后缀。
解决:确保使用完整地址:
✅ 正确:https://www.51api.org/v1
❌ 错误:https://www.51api.org1
2
2
Q: 报错 "Model not found"
原因:你的 API 令牌分组与模型不匹配。
解决:
- 登录 51API 控制台
- 进入「令牌」页面
- 编辑或新建令牌
- 选择正确的「分组」(如使用 Grok 模型就选
grok分组) - 在「模型限制列表」中勾选你要使用的模型
| 模型 | 需要选择的分组 |
|---|---|
| gpt-4o、gpt-5 等 | gpt |
| claude-* | claude |
| gemini-* | gemini |
| grok-* | grok |
Q: 报错 "401 Unauthorized"
原因:API Key 无效或格式错误。
解决:
- 确认 API Key 以
sk-开头 - 检查是否复制完整(没有多余空格)
- 确认令牌没有过期或被删除
- 重新创建一个新令牌试试
Q: 报错 "Insufficient balance" / 余额不足
原因:账户额度已用完。
解决:
- 前往 卡网购买兑换码
- 在控制台「充值」页面输入兑换码激活
使用问题
Q: 响应时间很长 / 超时
可能原因:
- 使用了 DeepSearch 类模型
- 使用了 Thinking 类推理模型
- 请求的
max_tokens很大 - 网络问题
解决:
- DeepSearch / Thinking 模型本身需要较长时间(1-5 分钟),请增加超时设置:python
# Python requests response = requests.post(url, timeout=(30, 600)) # 连接30秒,读取600秒1
2 - 尝试使用更快的模型如
gpt-4o或gemini-2.5-flash - 检查网络连接
Q: 如何使用流式输出?
在请求中添加 "stream": true:
python
stream = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好"}],
stream=True # 开启流式
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")1
2
3
4
5
6
7
8
9
2
3
4
5
6
7
8
9
Q: 如何查看消费记录?
- 登录 51API 控制台
- 点击左侧「日志」菜单
- 可以查看每一笔请求的:
- 使用的模型
- Token 消耗数量
- 消耗的额度
Q: 支持哪些第三方客户端?
51API 兼容所有支持 OpenAI API 的客户端,包括但不限于:
| 客户端 | 配置说明 |
|---|---|
| ChatBox | 设置 → API 类型选 OpenAI → 填入地址和密钥 |
| NextChat | 设置 → 接口地址填 https://www.51api.org |
| LobeChat | 设置 → 语言模型 → OpenAI → 自定义端点 |
| OpenCat | 设置 → 自定义 API 地址 |
| BotGem | 设置 → API 设置 → 自定义 |
计费问题
Q: 怎么计费的?
计费公式:
最终费用 = (输入Token × 模型倍率 + 输出Token × 补全倍率) × 分组倍率1
分组倍率:
| 分组 | 倍率 |
|---|---|
| gpt | 1x |
| grok | 1x |
| claude | 1.2x |
| gemini | 1.4x |
模型倍率示例:
| 模型 | 模型倍率 | 补全倍率 |
|---|---|---|
| gpt-4o | 1x | 1x |
| gpt-5-thinking | 2.5x | 6x |
| gemini-2.5-flash | 0.4x | 1x |
| claude-sonnet-4-5 | 1.5x | 4x |
详见 模型与价格
Q: Token 是什么?怎么算的?
Token 是 AI 模型处理文本的基本单位:
- 中文:约 1-2 个 token / 字
- 英文:约 1 个 token / 词
示例:
- "你好" ≈ 2 个 token
- "Hello" ≈ 1 个 token
每次请求消耗的 token = 输入 token + 输出 token
Q: 什么是补全倍率?
部分高级模型(如 Thinking、DeepSearch 系列)的输出 token 消耗比普通模型更高。
例如 gpt-5-thinking:
- 模型倍率:2.5x(输入)
- 补全倍率:6x(输出)
这意味着输出 1000 个 token 的费用是普通模型的 6 倍。
Q: 最低充值多少?
1 元起充,卡网 24 小时自动发货。
Q: 什么是 VIP 分组倍率?
VIP 用户可享受更低的分组倍率:
| 分组 | 普通用户 | VIP 用户 |
|---|---|---|
| gemini | 1.4x | 1.2x |
| claude | 1.2x | 1.05x |
| gpt | 1x | 0.9x |
| grok | 1x | 0.9x |
还有问题?
如果以上内容没有解决你的问题:
