快速开始
Token码头兼容 OpenAI API 格式,只需修改 base_url 即可将现有项目无缝切换,零代码改动。
三步接入
-
1
注册并获取 API Key
访问 tokendock.tech 注册账号,在控制台创建 API Key。
-
2
修改 Base URL
将你的 OpenAI SDK 中的 base_url 改为 https://api.tokendock.tech/v1
-
3
开始调用
替换 API Key 后即可直接调用,支持所有 OpenAI SDK 参数。
Base URL
https://api.tokendock.tech/v1
cURL 示例
curl https://api.tokendock.tech/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "deepseek-chat", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ] }'
Python 示例
from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.tokendock.tech/v1" ) response = client.chat.completions.create( model="deepseek-chat", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ] ) print(response.choices[0].message.content)
Node.js 示例
import OpenAI from "openai"; const client = new OpenAI({ apiKey: "YOUR_API_KEY", baseURL: "https://api.tokendock.tech/v1", }); const response = await client.chat.completions.create({ model: "deepseek-chat", messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "你好" }, ], }); console.log(response.choices[0].message.content);
认证方式
Token码头使用 Bearer Token 认证方式,在请求头中携带 API Key 进行身份验证。
请求头格式
Authorization: Bearer YOUR_API_KEY
获取 API Key
-
1
注册账号
访问 tokendock.tech 注册并登录。
-
2
进入控制台
点击右上角进入 Dashboard。
-
3
创建 API Key
在「API 密钥」页面点击创建,复制并妥善保管。Key 仅在创建时显示一次。
安全注意事项
- 切勿将 API Key 提交到代码仓库(如 GitHub)
- 切勿在前端代码中暴露 API Key
- 建议使用环境变量存储 API Key
- 如 Key 泄露,请立即在控制台删除并重新创建
环境变量配置
# 设置环境变量 export TOKENDOCK_API_KEY="sk-xxxxx"
import os from openai import OpenAI client = OpenAI( api_key=os.environ["TOKENDOCK_API_KEY"], base_url="https://api.tokendock.tech/v1" )
聊天补全
聊天补全是最核心的接口,支持多轮对话、流式输出、参数调节等。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | ✅ | 模型 ID,如 deepseek-chat、gpt-4o |
messages | array | ✅ | 消息数组,每条包含 role 和 content |
temperature | number | ❌ | 采样温度,0~2,默认 1。值越低输出越确定 |
top_p | number | ❌ | 核采样概率,0~1,默认 1 |
max_tokens | integer | ❌ | 最大生成 token 数 |
stream | boolean | ❌ | 是否流式输出,默认 false |
stop | string/array | ❌ | 停止生成的标记序列 |
presence_penalty | number | ❌ | 存在惩罚,-2~2,默认 0 |
frequency_penalty | number | ❌ | 频率惩罚,-2~2,默认 0 |
response_format | object | ❌ | 输出格式,如 {"type": "json_object"} |
seed | integer | ❌ | 随机种子,用于可复现输出 |
Messages 格式
| 字段 | 类型 | 说明 |
|---|---|---|
role | string | system | user | assistant | tool |
content | string | 消息内容 |
name | string | 参与者名称(可选) |
请求示例
{
"model": "deepseek-chat",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "用Python写一个快排算法"}
],
"temperature": 0.7,
"max_tokens": 2048,
"stream": false
}响应格式
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1716640000,
"model": "deepseek-chat",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "好的,这是一个快速排序的Python实现:\n\n```python\ndef quicksort(arr):\n ..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 180,
"total_tokens": 205
}
}流式输出
设置 "stream": true 即可启用 SSE(Server-Sent Events)流式输出,逐 token 返回响应,适用于实时对话场景。
流式请求
from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.tokendock.tech/v1" ) stream = client.chat.completions.create( model="deepseek-chat", messages=[{"role": "user", "content": "写一首关于春天的诗"}], stream=True ) for chunk in stream: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="")
流式响应格式
每个 chunk 的数据格式如下:
data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"春"},"finish_reason":null}]}
data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"风"},"finish_reason":null}]}
data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}
data: [DONE]finish_reason 为 "stop",随后会发送 data: [DONE] 表示结束。
模型列表
获取当前可用的模型列表。
请求示例
curl https://api.tokendock.tech/v1/models \ -H "Authorization: Bearer YOUR_API_KEY"
响应格式
{
"object": "list",
"data": [
{
"id": "deepseek-chat",
"object": "model",
"created": 1716640000,
"owned_by": "deepseek"
},
{
"id": "gpt-4o",
"object": "model",
"created": 1716640000,
"owned_by": "openai"
}
]
}支持的模型
Token码头聚合全球主流大模型,提供免费模型、付费模型和 BYOK 三种接入方式。
🆓 免费模型
| 模型 ID | 上下文 | 输入价格 | 输出价格 | 标签 |
|---|---|---|---|---|
deepseek-chat | 128K | ¥1/M tokens | ¥2/M tokens | 免费 |
deepseek-reasoner | 128K | ¥4/M tokens | ¥16/M tokens | 免费 |
qwen-turbo | 1M | ¥0.3/M tokens | ¥0.6/M tokens | 免费 |
qwen-plus | 128K | ¥0.8/M tokens | ¥2/M tokens | 免费 |
glm-4-flash | 128K | ¥0.1/M tokens | ¥0.1/M tokens | 免费 |
glm-4-air | 128K | ¥1/M tokens | ¥1/M tokens | 免费 |
hunyuan-lite | 256K | 免费 | 免费 | 免费 |
spark-lite | 8K | 免费 | 免费 | 免费 |
* 以上为部分免费模型,完整列表请通过 GET /v1/models 接口查询。
💎 付费模型
| 模型 ID | 厂商 | 上下文 | 输入价格 | 输出价格 |
|---|---|---|---|---|
gpt-4o | OpenAI | 128K | ¥17.5/M tokens | ¥70/M tokens |
gpt-4o-mini | OpenAI | 128K | ¥1.05/M tokens | ¥4.2/M tokens |
o1 | OpenAI | 200K | ¥105/M tokens | ¥420/M tokens |
o1-mini | OpenAI | 128K | ¥11.2/M tokens | ¥44.8/M tokens |
claude-sonnet-4-20250514 | Anthropic | 200K | ¥21/M tokens | ¥105/M tokens |
claude-3-5-haiku-20241022 | Anthropic | 200K | ¥7/M tokens | ¥35/M tokens |
gemini-2.5-pro | 1M | ¥9.8/M tokens | ¥39.2/M tokens | |
gemini-2.5-flash | 1M | ¥1.05/M tokens | ¥4.2/M tokens | |
qwen-max | 阿里云 | 32K | ¥16/M tokens | ¥64/M tokens |
qwen-long | 阿里云 | 10M | ¥0.5/M tokens | ¥2/M tokens |
* 以上为部分付费模型,完整列表请通过 GET /v1/models 接口查询。
🔑 BYOK(Bring Your Own Key)
BYOK 支持的厂商:OpenAI、Anthropic、Google、阿里云、百度、讯飞等。配置后使用方式与普通模型完全一致,无需修改代码。
定价说明
🆓 免费模型
20+ 款模型免费
每日 100 次调用
限速使用
💎 付费模型
大厂原价直供,零加价
充值手续费 5.5%
最低 ¥1
🔑 BYOK
自带官方 API Key
零手续费
无限速限制
费用说明
- 大厂原价直供:付费模型按大厂原价计费,我们不加价
- 充值手续费:5.5%(内测期2.75%),不同会员等级费率不同(详见定价页),仅充值时收取
- 免费模型限速:每日 100 次调用,每分钟限 3 次,超出需充值
- 按量计费:按实际使用的 token 数量计费,无最低消费
- BYOK 零费用:自带密钥的模型不经过我们计费,零手续费
错误码
错误响应格式
{
"error": {
"message": "Invalid API key provided.",
"type": "invalid_request_error",
"code": "invalid_api_key"
}
}HTTP 状态码
| 状态码 | 类型 | 说明 |
|---|---|---|
400 | Bad Request | 请求参数错误,请检查请求体格式 |
401 | Unauthorized | API Key 无效或未提供 |
403 | Forbidden | 账号被禁用或无权限访问该模型 |
404 | Not Found | 请求的模型或接口不存在 |
429 | Too Many Requests | 请求频率超限,请降低调用频率 |
500 | Internal Server Error | 服务器内部错误,请稍后重试 |
502 | Bad Gateway | 上游模型服务异常 |
503 | Service Unavailable | 服务暂时不可用,请稍后重试 |
常见错误类型
| 错误代码 | 说明 | 解决方案 |
|---|---|---|
invalid_api_key | API Key 无效 | 检查 Key 是否正确,是否已过期 |
insufficient_quota | 余额不足 | 前往控制台充值 |
model_not_found | 模型不存在 | 检查模型 ID 是否正确 |
rate_limit_exceeded | 超出速率限制 | 降低调用频率或升级账户 |
context_length_exceeded | 超出上下文长度 | 减少输入消息的 token 数 |
速率限制
为保障服务稳定,Token码头对不同用户类型设置了速率限制。
| 用户类型 | RPM(请求/分钟) | TPM(Token/分钟) | 每日调用 |
|---|---|---|---|
| 🆓 免费会员(免费模型) | 3 | 40,000 | 100 次 |
| 💎 付费会员(付费模型) | 60 | 200,000 | 无限制 |
| 🔑 BYOK 会员 | 60 | 200,000 | 无限制 |
超限响应
当请求超过速率限制时,API 将返回 429 状态码:
{
"error": {
"message": "Rate limit exceeded. Please slow down.",
"type": "rate_limit_error",
"code": "rate_limit_exceeded"
}
}重试示例(指数退避)
import time from openai import OpenAI, RateLimitError client = OpenAI( api_key="YOUR_API_KEY", base_url="https://api.tokendock.tech/v1" ) def call_with_retry(**kwargs): for attempt in range(5): try: return client.chat.completions.create(**kwargs) except RateLimitError: wait = 2 ** attempt # 1, 2, 4, 8, 16秒 print(f"Rate limited, waiting {wait}s...") time.sleep(wait) raise Exception("Max retries exceeded")
常见问题
Token码头是AI智能体服务平台,同时提供AI模型API聚合服务,用一个 API Key 即可调用全球 20+ 家厂商的模型,无需分别注册各家账号。付费模型按大厂原价直供、零加价,兼容 OpenAI 格式,现有代码只需改一行 base_url 即可切换。
我们完全兼容 OpenAI 的 Chat Completions API 格式,包括请求参数、响应格式、流式输出(SSE)等。这意味着你可以直接使用 OpenAI 的官方 SDK(Python、Node.js、Go 等),只需将 base_url 改为 https://api.tokendock.tech/v1,替换 api_key 即可,无需安装任何额外依赖或修改代码逻辑。
免费模型每日可调用 100 次,每分钟限 3 次请求。超出限额后需要充值成为付费用户。免费模型本身不消耗账户余额,适合开发调试和小规模使用。
充值手续费根据会员等级不同:普通会员5.5%、高级会员5.0%、专业会员4.5%、企业会员4.0%。内测期间所有等级减半。例如普通会员充值 ¥100,手续费 ¥5.50,实际到账 ¥94.50。详见定价页。BYOK 会员自带密钥,零手续费。
BYOK(Bring Your Own Key)即自带密钥。如果你已有 OpenAI、Anthropic 等官方 API Key,可以在控制台配置绑定。配置后通过 Token码头调用时,请求会直接使用你自己的 Key,我们只做转发,不收取任何费用,也没有速率限制(受限于官方本身的限制)。
由于兼容 OpenAI API 格式,所有支持 OpenAI 官方 SDK 的语言均可使用,包括 Python、Node.js/TypeScript、Go、Java、Rust、C# 等。也可直接使用 HTTP 请求调用,任何语言都支持。
Token码头仅做 API 转发,不存储任何对话内容。你的请求直接转发到对应的模型服务商,我们不记录、不分析、不使用你的数据。API Key 采用加密存储,确保安全。
你可以通过以下方式获取帮助:① 发送邮件至 support@tokendock.tech;② 访问 状态监控页面 查看服务状态;③ 在控制台提交工单。我们会在工作日 24 小时内响应。