API Docs
定价 业务合作 关于我们 状态监控 ← 返回首页
首页 定价 API文档 业务合作 关于我们 ← 返回首页

🚀 快速开始

Token码头兼容 OpenAI API 格式,只需修改 base_url 即可将现有项目无缝切换,零代码改动。

三步接入

  1. 1
    注册并获取 API Key

    访问 tokendock.tech 注册账号,在控制台创建 API Key。

  2. 2
    修改 Base URL

    将你的 OpenAI SDK 中的 base_url 改为 https://api.tokendock.tech/v1

  3. 3
    开始调用

    替换 API Key 后即可直接调用,支持所有 OpenAI SDK 参数。

Base URL

URL
https://api.tokendock.tech/v1

cURL 示例

bash
curl https://api.tokendock.tech/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-chat",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "你好"}
    ]
  }'

Python 示例

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.tokendock.tech/v1"
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "你好"}
    ]
)

print(response.choices[0].message.content)

Node.js 示例

javascript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "YOUR_API_KEY",
  baseURL: "https://api.tokendock.tech/v1",
});

const response = await client.chat.completions.create({
  model: "deepseek-chat",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "你好" },
  ],
});

console.log(response.choices[0].message.content);
💡 兼容性提示:所有 OpenAI SDK(Python、Node.js、Go 等)均可直接使用,只需修改 base_urlapi_key 即可,无需安装任何额外依赖。

🔐 认证方式

Token码头使用 Bearer Token 认证方式,在请求头中携带 API Key 进行身份验证。

请求头格式

HTTP Header
Authorization: Bearer YOUR_API_KEY

获取 API Key

  1. 1
    注册账号

    访问 tokendock.tech 注册并登录。

  2. 2
    进入控制台

    点击右上角进入 Dashboard。

  3. 3
    创建 API Key

    在「API 密钥」页面点击创建,复制并妥善保管。Key 仅在创建时显示一次。

安全注意事项

⚠️ 安全警告:
  • 切勿将 API Key 提交到代码仓库(如 GitHub)
  • 切勿在前端代码中暴露 API Key
  • 建议使用环境变量存储 API Key
  • 如 Key 泄露,请立即在控制台删除并重新创建

环境变量配置

bash
# 设置环境变量
export TOKENDOCK_API_KEY="sk-xxxxx"
python
import os
from openai import OpenAI

client = OpenAI(
    api_key=os.environ["TOKENDOCK_API_KEY"],
    base_url="https://api.tokendock.tech/v1"
)

💬 聊天补全

聊天补全是最核心的接口,支持多轮对话、流式输出、参数调节等。

POST /v1/chat/completions

请求参数

参数类型必填说明
modelstring模型 ID,如 deepseek-chatgpt-4o
messagesarray消息数组,每条包含 rolecontent
temperaturenumber采样温度,0~2,默认 1。值越低输出越确定
top_pnumber核采样概率,0~1,默认 1
max_tokensinteger最大生成 token 数
streamboolean是否流式输出,默认 false
stopstring/array停止生成的标记序列
presence_penaltynumber存在惩罚,-2~2,默认 0
frequency_penaltynumber频率惩罚,-2~2,默认 0
response_formatobject输出格式,如 {"type": "json_object"}
seedinteger随机种子,用于可复现输出

Messages 格式

字段类型说明
rolestringsystem | user | assistant | tool
contentstring消息内容
namestring参与者名称(可选)

请求示例

json
{
  "model": "deepseek-chat",
  "messages": [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "用Python写一个快排算法"}
  ],
  "temperature": 0.7,
  "max_tokens": 2048,
  "stream": false
}

响应格式

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1716640000,
  "model": "deepseek-chat",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "好的,这是一个快速排序的Python实现:\n\n```python\ndef quicksort(arr):\n    ..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 180,
    "total_tokens": 205
  }
}

流式输出

设置 "stream": true 即可启用 SSE(Server-Sent Events)流式输出,逐 token 返回响应,适用于实时对话场景。

流式请求

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.tokendock.tech/v1"
)

stream = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "写一首关于春天的诗"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

流式响应格式

每个 chunk 的数据格式如下:

SSE
data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"春"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"风"},"finish_reason":null}]}

data: {"id":"chatcmpl-abc","object":"chat.completion.chunk","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}

data: [DONE]
📌 注意:流式输出最后一个 chunk 的 finish_reason"stop",随后会发送 data: [DONE] 表示结束。

📋 模型列表

获取当前可用的模型列表。

GET /v1/models

请求示例

bash
curl https://api.tokendock.tech/v1/models \
  -H "Authorization: Bearer YOUR_API_KEY"

响应格式

json
{
  "object": "list",
  "data": [
    {
      "id": "deepseek-chat",
      "object": "model",
      "created": 1716640000,
      "owned_by": "deepseek"
    },
    {
      "id": "gpt-4o",
      "object": "model",
      "created": 1716640000,
      "owned_by": "openai"
    }
  ]
}

🤖 支持的模型

Token码头聚合全球主流大模型,提供免费模型、付费模型和 BYOK 三种接入方式。

🆓 免费模型

20+ 款模型免费使用,每日 100 次调用限额,无需充值即可体验。免费模型标注 免费 标签。
模型 ID上下文输入价格输出价格标签
deepseek-chat128K¥1/M tokens¥2/M tokens免费
deepseek-reasoner128K¥4/M tokens¥16/M tokens免费
qwen-turbo1M¥0.3/M tokens¥0.6/M tokens免费
qwen-plus128K¥0.8/M tokens¥2/M tokens免费
glm-4-flash128K¥0.1/M tokens¥0.1/M tokens免费
glm-4-air128K¥1/M tokens¥1/M tokens免费
hunyuan-lite256K免费免费免费
spark-lite8K免费免费免费

* 以上为部分免费模型,完整列表请通过 GET /v1/models 接口查询。

💎 付费模型

大厂原价直供,零加价——我们按大厂原价提供,不赚差价,只收 5.5% 充值手续费。
模型 ID厂商上下文输入价格输出价格
gpt-4oOpenAI128K¥17.5/M tokens¥70/M tokens
gpt-4o-miniOpenAI128K¥1.05/M tokens¥4.2/M tokens
o1OpenAI200K¥105/M tokens¥420/M tokens
o1-miniOpenAI128K¥11.2/M tokens¥44.8/M tokens
claude-sonnet-4-20250514Anthropic200K¥21/M tokens¥105/M tokens
claude-3-5-haiku-20241022Anthropic200K¥7/M tokens¥35/M tokens
gemini-2.5-proGoogle1M¥9.8/M tokens¥39.2/M tokens
gemini-2.5-flashGoogle1M¥1.05/M tokens¥4.2/M tokens
qwen-max阿里云32K¥16/M tokens¥64/M tokens
qwen-long阿里云10M¥0.5/M tokens¥2/M tokens

* 以上为部分付费模型,完整列表请通过 GET /v1/models 接口查询。

🔑 BYOK(Bring Your Own Key)

自带密钥,零手续费——如果你已有官方 API Key,可以在控制台配置 BYOK,直接使用你自己的密钥调用,我们不收取任何费用。

BYOK 支持的厂商:OpenAI、Anthropic、Google、阿里云、百度、讯飞等。配置后使用方式与普通模型完全一致,无需修改代码。

💰 定价说明

🆓 免费模型

¥0

20+ 款模型免费
每日 100 次调用
限速使用

💎 付费模型

官方价

大厂原价直供,零加价
充值手续费 5.5%
最低 ¥1

🔑 BYOK

¥0

自带官方 API Key
零手续费
无限速限制

费用说明

  • 大厂原价直供:付费模型按大厂原价计费,我们不加价
  • 充值手续费:5.5%(内测期2.75%),不同会员等级费率不同(详见定价页),仅充值时收取
  • 免费模型限速:每日 100 次调用,每分钟限 3 次,超出需充值
  • 按量计费:按实际使用的 token 数量计费,无最低消费
  • BYOK 零费用:自带密钥的模型不经过我们计费,零手续费
💡 计费示例:使用 deepseek-chat 模型,输入 1000 tokens + 输出 500 tokens,费用 = 1000/1,000,000 × ¥1 + 500/1,000,000 × ¥2 = ¥0.002。

错误码

错误响应格式

json
{
  "error": {
    "message": "Invalid API key provided.",
    "type": "invalid_request_error",
    "code": "invalid_api_key"
  }
}

HTTP 状态码

状态码类型说明
400Bad Request请求参数错误,请检查请求体格式
401UnauthorizedAPI Key 无效或未提供
403Forbidden账号被禁用或无权限访问该模型
404Not Found请求的模型或接口不存在
429Too Many Requests请求频率超限,请降低调用频率
500Internal Server Error服务器内部错误,请稍后重试
502Bad Gateway上游模型服务异常
503Service Unavailable服务暂时不可用,请稍后重试

常见错误类型

错误代码说明解决方案
invalid_api_keyAPI Key 无效检查 Key 是否正确,是否已过期
insufficient_quota余额不足前往控制台充值
model_not_found模型不存在检查模型 ID 是否正确
rate_limit_exceeded超出速率限制降低调用频率或升级账户
context_length_exceeded超出上下文长度减少输入消息的 token 数

⏱️ 速率限制

为保障服务稳定,Token码头对不同用户类型设置了速率限制。

用户类型RPM(请求/分钟)TPM(Token/分钟)每日调用
🆓 免费会员(免费模型)340,000100 次
💎 付费会员(付费模型)60200,000无限制
🔑 BYOK 会员60200,000无限制

超限响应

当请求超过速率限制时,API 将返回 429 状态码:

json
{
  "error": {
    "message": "Rate limit exceeded. Please slow down.",
    "type": "rate_limit_error",
    "code": "rate_limit_exceeded"
  }
}
💡 建议:实现指数退避重试策略,在收到 429 错误后等待并重试,避免持续请求导致被临时封禁。

重试示例(指数退避)

python
import time
from openai import OpenAI, RateLimitError

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.tokendock.tech/v1"
)

def call_with_retry(**kwargs):
    for attempt in range(5):
        try:
            return client.chat.completions.create(**kwargs)
        except RateLimitError:
            wait = 2 ** attempt  # 1, 2, 4, 8, 16秒
            print(f"Rate limited, waiting {wait}s...")
            time.sleep(wait)
    raise Exception("Max retries exceeded")

常见问题

Token码头和直接用官方 API 有什么区别?

Token码头是AI智能体服务平台,同时提供AI模型API聚合服务,用一个 API Key 即可调用全球 20+ 家厂商的模型,无需分别注册各家账号。付费模型按大厂原价直供、零加价,兼容 OpenAI 格式,现有代码只需改一行 base_url 即可切换。

兼容 OpenAI API 格式具体是什么意思?

我们完全兼容 OpenAI 的 Chat Completions API 格式,包括请求参数、响应格式、流式输出(SSE)等。这意味着你可以直接使用 OpenAI 的官方 SDK(Python、Node.js、Go 等),只需将 base_url 改为 https://api.tokendock.tech/v1,替换 api_key 即可,无需安装任何额外依赖或修改代码逻辑。

免费模型有什么限制?

免费模型每日可调用 100 次,每分钟限 3 次请求。超出限额后需要充值成为付费用户。免费模型本身不消耗账户余额,适合开发调试和小规模使用。

充值手续费怎么算?

充值手续费根据会员等级不同:普通会员5.5%、高级会员5.0%、专业会员4.5%、企业会员4.0%。内测期间所有等级减半。例如普通会员充值 ¥100,手续费 ¥5.50,实际到账 ¥94.50。详见定价页。BYOK 会员自带密钥,零手续费。

什么是 BYOK?怎么使用?

BYOK(Bring Your Own Key)即自带密钥。如果你已有 OpenAI、Anthropic 等官方 API Key,可以在控制台配置绑定。配置后通过 Token码头调用时,请求会直接使用你自己的 Key,我们只做转发,不收取任何费用,也没有速率限制(受限于官方本身的限制)。

支持哪些编程语言?

由于兼容 OpenAI API 格式,所有支持 OpenAI 官方 SDK 的语言均可使用,包括 Python、Node.js/TypeScript、Go、Java、Rust、C# 等。也可直接使用 HTTP 请求调用,任何语言都支持。

数据安全吗?你们会存储我的对话内容吗?

Token码头仅做 API 转发,不存储任何对话内容。你的请求直接转发到对应的模型服务商,我们不记录、不分析、不使用你的数据。API Key 采用加密存储,确保安全。

遇到问题如何获取支持?

你可以通过以下方式获取帮助:① 发送邮件至 support@tokendock.tech;② 访问 状态监控页面 查看服务状态;③ 在控制台提交工单。我们会在工作日 24 小时内响应。