主站
JingAPI GPT Gateway

面向开发工具的 GPT 接入文档

JingAPI 提供 OpenAI 兼容的 API 网关,适配 Codex、Claude Code、OpenCode 等工具, 让你用统一的令牌和 Base URL 接入当前可用的 GPT 模型。

入口 OpenAI Compatible
默认 Base URL https://hivewa.store/v1
文档路径 /docs
当前推荐: 新接入优先使用 /v1/responsesgpt-5.4-mini 做联调, 如果你的账号组是 Codex / Responses 类型,这样更容易一次跑通。
QQ群: 1093348483 有接入、部署或使用问题可直接进群交流。
统一接入
使用统一的 Base URL 与 API Key,兼容主流 OpenAI SDK 与开发工具。
🧭
工具友好
针对 Codex、Claude Code、OpenCode 等场景整理了可直接复制的配置片段。
🛡️
可控网关
支持稳定调度、并发控制、计费和模型路由,适合团队化使用。
📈
实时监控
清晰查看 API Key、使用量、模型可见性和请求结果,便于快速定位问题。

你可能最先需要的内容

GET /v1/models POST /v1/chat/completions POST /v1/responses
{
  "provider": "JingAPI",
  "base_url": "https://hivewa.store/v1",
  "model": "gpt-5.4-mini",
  "status": "ready"
}

快速接入

最快只需要一个 Base URL 和一个 API Key。

  1. 登录 JingAPI 后台

    确认你已经有可用账户,并能在平台中创建可用的 API Key。

  2. 获取 API Key

    在用户侧或后台创建令牌,记下以 sk- 开头的密钥。

  3. 设置 Base URL

    将客户端指向 https://hivewa.store/v1,即可按 OpenAI 兼容方式调用。

💡
如果工具要求填写 OpenAI 兼容地址,通常都应该填写 https://hivewa.store/v1 而不是裸域名。

最小 curl 示例

curl https://hivewa.store/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-token" \
  -d '{
    "model": "gpt-5.4-mini",
    "messages": [
      {"role": "user", "content": "Hello from JingAPI"}
    ]
  }'
💡
大多数 OpenAI 兼容 SDK 都应该把 Base URL 配成 https://hivewa.store/v1。不要只填裸域名,也不要在 SDK 已经自动拼接 /v1 时重复追加。

Python 示例

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-token",
    base_url="https://hivewa.store/v1"
)

response = client.chat.completions.create(
    model="gpt-5.4-mini",
    messages=[{"role": "user", "content": "Hello from JingAPI"}]
)

print(response.choices[0].message.content)

Node.js 示例

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "sk-your-token",
  baseURL: "https://hivewa.store/v1",
});

const response = await client.chat.completions.create({
  model: "gpt-5.4-mini",
  messages: [{ role: "user", content: "Hello from JingAPI" }],
});

console.log(response.choices[0].message.content);
下一步:先执行 GET /v1/models,确认你的令牌下确实能看到目标模型,再开始接入客户端。

注册账号

如果站点开放注册,先创建一个 JingAPI 账户,再继续充值和创建 API Key。

  1. 打开注册页

    进入主站注册页面,填写系统要求的注册信息。

  2. 完成验证

    如果启用了邮箱验证、邀请码或注册限制,请按页面提示完成。

  3. 进入控制台

    注册成功后即可登录控制台,继续充值和创建令牌。

ℹ️
如果注册入口无法使用,通常说明该站点当前关闭了公开注册,请联系站点维护方获取账户。

登录使用

登录后你可以查看余额、令牌、使用量和个人设置。

文档入口https://hivewa.store/docs
  1. 进入登录页

    使用你自己的账户凭据登录 JingAPI。

  2. 确认权限

    登录成功后,先确认你所在分组、订阅或令牌权限是否已经准备好。

  3. 开始创建令牌

    在控制台中进入 API Key 页面,为客户端接入准备 Bearer Token。

额度充值

调用模型前,请先确认账户有足够的余额、订阅或兑换额度。

  • 如果站点开启了充值或购买入口,可直接在钱包或订阅页完成。
  • 如果站点使用兑换码模式,请先兑换余额或订阅额度。
  • 如果是内部或邀请制站点,也可能由站点维护方直接分配余额或订阅。
⚠️
当接口返回 insufficient_quota 或显示余额不足时,先补足额度,再继续排查模型权限。

获取令牌

所有对外 API 调用都依赖 Bearer Token,所以这一步是接入前的核心操作。

  1. 进入令牌管理

    登录后打开用户控制台中的 API Key / 令牌管理页面。

  2. 创建新令牌

    填写名称,必要时限制分组、用途或额度,然后创建一条新的 Key。

  3. 妥善保存

    复制生成的 sk-... 密钥,保存到环境变量或密码管理器中。

Authorization: Bearer sk-your-token

Codex 配置

推荐通过 config.toml + auth.json 方式接入 JingAPI 的 Responses 能力。

💡
这套配置同时适用于 Codex CLI、桌面端和插件场景。关键是让 Provider 指向 JingAPI 的 OpenAI 兼容入口,并保持鉴权文件结构最小化。

config.toml 示例

disable_response_storage = true
model = "gpt-5.4"
model_provider = "JingAPI"
model_reasoning_effort = "high"

[model_providers."JingAPI"]
name = "JingAPI"
base_url = "https://hivewa.store/v1"
requires_openai_auth = true
wire_api = "responses"

auth.json 示例

{
  "OPENAI_API_KEY": "sk-your-token"
}
⚠️
auth.json 里建议只保留 OPENAI_API_KEY。不要混入注释、历史字段或多套 Provider 数据,避免 Codex 读取异常。

推荐检查顺序

  1. 先确认 Provider 名称

    model_provider[model_providers."JingAPI"] 必须完全一致。

  2. 再确认 Base URL

    写成 https://hivewa.store/v1,不要漏掉 /v1,也不要重复拼接。

  3. 最后确认模型

    如果默认模型不可用,先调用 GET /v1/models,再把返回结果中的模型名写回配置。

验证命令

codex
codex "帮我检查当前项目结构"
codex exec "列出当前仓库里最值得先修的三个问题"
下一步:如果 Codex 启动正常但请求失败,先不要怀疑本地安装,先回查 Base URLauth.json 和模型名。

Claude Code 配置

如果你走 Anthropic 风格环境变量,关键是把 Host 指向 JingAPI,并把默认模型统一改成你当前可用的 GPT 模型。

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-your-token",
    "ANTHROPIC_BASE_URL": "https://hivewa.store",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4",
    "ANTHROPIC_MODEL": "gpt-5.4",
    "ANTHROPIC_REASONING_MODEL": "gpt-5.4"
  }
}
ℹ️
Claude Code 这类工具通常不是直接填 OpenAI 风格的 `base_url` 字段,而是走自身约定的环境变量。实际以你本机版本支持的配置键为准。

接入步骤

  1. 准备令牌

    先在 JingAPI 控制台生成可用 API Key,并确认它确实能看到目标模型。

  2. 统一模型名

    把默认模型和 reasoning 模型统一改成同一个可用模型,排除“部分环境变量没同步”的干扰。

  3. 从简单请求开始验证

    先测试最基础的对话,再启用更复杂的工作流或工具调用。

常见排查

  • 如果工具能启动但请求失败,先确认真实发出的请求 Host 是不是 hivewa.store
  • 如果报 401,优先检查是不是误用了其他系统的令牌,而不是当前站点的 API Key。
  • 如果报 503,很可能是分组里没有可调度账号,而不是本地客户端配置错了。
下一步:联调时先用最简单的 hello 请求,不要一开始就上大 prompt 或复杂工具链。

OpenCode 配置

推荐先通过 /connect 保存鉴权,再在 opencode.json 里声明 JingAPI Provider。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "JingAPI": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "JingAPI",
      "options": {
        "baseURL": "https://hivewa.store/v1"
      },
      "models": {
        "gpt-5.4": {
          "model": "gpt-5.4",
          "name": "GPT-5.4",
          "options": {
            "variant": "high"
          },
          "limit": {
            "context": 200000,
            "output": 8192
          }
        }
      }
    }
  },
  "model": "JingAPI/gpt-5.4",
  "small_model": "JingAPI/gpt-5.4"
}

推荐做法

  • 先在 TUI 里执行 /connect,把 Provider ID 固定为 JingAPI
  • 配置文件中的 Provider ID、模型前缀和连接时填写的 Provider ID 要保持一致。
  • 先跑通最小请求,再逐步添加默认模型、路由或本地代理设置。
下一步:重启 OpenCode 后先执行 /models,确认能看到 JingAPI/gpt-5.4 这类条目。

OpenClaw 配置

推荐通过自定义 Provider 方式接入 JingAPI,不要只改一条裸的 Base URL。

"providers": {
  "JingAPI": {
    "baseUrl": "https://hivewa.store",
    "apiKey": "sk-your-token",
    "api": "openai-completions",
    "headers": {
      "User-Agent": "Mozilla/5.0",
      "Accept": "application/json"
    },
    "models": [
      {
        "id": "gpt-5.4",
        "name": "gpt-5.4",
        "reasoning": true,
        "input": ["text", "image"],
        "cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
        "contextWindow": 200000,
        "maxTokens": 32768
      }
    ]
  }
},
"agents": {
  "defaults": {
    "model": {
      "primary": "JingAPI/gpt-5.4"
    }
  }
}

排查建议

  • 如果 OpenClaw 本地界面能起来,但模型请求失败,通常是账号或分组侧的问题,不是 Provider 结构本身的问题。
  • 如果请求直接报连接错误,优先检查 Base URL 是否写对,以及本地 JSON 有没有语法错误。
下一步:先保证最基础对话请求成功,再考虑本地网关、代理或自动化工作流。

接口概述

JingAPI 暴露的是 OpenAI 兼容接口,最常用的是 Chat Completions 和 Responses。

Base URLhttps://hivewa.store/v1
认证方式Authorization: Bearer sk-...
主要接口/chat/completions/responses/models

调用原则

  • 客户端统一走 OpenAI 兼容协议,不需要为不同模型单独改 SDK。
  • 可见模型由后台分组、账号状态和路由规则共同决定。
  • 如果你的工具支持新版接口,优先考虑 /v1/responses;兼容性优先时用 /v1/chat/completions
下一步:建议把 /v1/models/v1/chat/completions/v1/responses 三个接口分别都测一遍。

Chat Completions

适合最常见的对话式调用。

POST /v1/chat/completions
Authorization: Bearer sk-your-token
Content-Type: application/json

{
  "model": "gpt-5.4-mini",
  "messages": [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Write a short summary."}
  ]
}

常用字段

字段作用说明
model指定模型必须使用当前令牌可见的模型名
messages对话数组按 system / user / assistant 组织
stream流式返回排查阶段建议先关闭,便于定位错误
temperature采样温度不需要时可保持默认

什么时候优先用它

  • 你用的是传统 OpenAI SDK。
  • 你更看重兼容性,而不是新版统一响应结构。
  • 你只是做普通多轮对话、文本生成或简单工具调用。
排障提醒:如果这里返回 503,而 /v1/models 正常,优先去后台确认分组里是否有可调度账号。

Responses

适合新版 OpenAI 风格客户端、更强推理任务和更统一的响应结构。

POST /v1/responses
Authorization: Bearer sk-your-token
Content-Type: application/json

{
  "model": "gpt-5.4",
  "input": "Explain how to connect to JingAPI.",
  "reasoning": {"effort": "medium"},
  "max_output_tokens": 800
}

常用字段

字段作用说明
model指定模型必须使用当前令牌可见的模型名
input输入内容可为字符串或消息数组
instructions系统说明适合补充角色与约束
reasoning.effort推理强度常见值为 low / medium / high
max_output_tokens输出上限建议联调时显式设置,避免返回过长
tools工具定义复杂任务时使用
previous_response_id多轮串联需要承接上一轮上下文时使用
stream流式返回排障阶段建议先关闭

更适合的场景

  • 你使用的是新版 OpenAI 客户端或 Codex 风格工具。
  • 你希望获得更统一的响应结构,便于后续扩展。
  • 你的账号本身更偏向 Codex / Responses 路由,而不是传统 chat 路由。
💡
如果 /v1/chat/completions 报 503,而后台账号是 Codex / Responses 类型,优先改用 /v1/responses 测试。
推荐:新模型或新账号上线时,优先先用 responses 做最小联调,再回头适配其他接口。

模型与 Base URL

模型可见性取决于你的令牌权限、当前账号状态和站点配置。

GET /v1/models
Authorization: Bearer sk-your-token

返回结果中的模型列表,就是这个令牌当前可见的模型集合。

推荐流程

  1. 先查 /v1/models

    不要凭记忆填写模型名,始终先看实际返回。

  2. 再写到客户端

    把返回结果中的模型名复制到工具配置里,避免手写错误。

  3. 调用失败就回查

    如果后面报模型不可用,重新查一次模型列表,再确认当前账户是否仍具备对应权限。

错误排查

接入失败时,先看状态码和 error.code,再区分是客户端配置、令牌权限还是服务侧容量问题。

⚠️
如果浏览器或客户端报 SSL、CSP、401、429、503,先分清是接入层问题还是上游服务问题,再结合返回信息继续排查。

常见 HTTP 状态码

状态码含义优先处理方式
400请求参数错误检查 JSON 结构、字段名和模型名
401认证失败确认是否用了正确的 API Key
403权限不足检查令牌是否有分组或模型权限
404路径不存在确认接口路径和 Base URL 拼接是否正确
413请求体过大减小上下文、文件或图片体积
429频率超限降低请求频率,或检查限流配置
500服务内部错误稍后重试;持续出现时联系站点维护方
502上游异常通常是提供商暂时不可用
503服务暂不可用通常是当前服务容量不足、模型暂时不可用,或站点侧正在维护

常见 error.code

error.code含义排查方向
invalid_api_key令牌无效检查是否复制完整、是否误用了其他系统的密钥
insufficient_quota额度不足充值、兑换或切换到有余额的令牌
model_not_found模型当前不可用先查 /v1/models 再确认当前账户是否具备该模型权限
context_length_exceeded上下文过长裁剪历史消息、文件或输入文本
unsupported_endpoint接口不匹配必要时从 /v1/chat/completions 切到 /v1/responses
  • 401:令牌无效、过期,或请求头里用了错误的密钥。
  • 429:令牌或账号触发限流。
  • 503:站点当前没有可用容量,或上游全部异常。
  • 模型不存在:当前账户没有该模型权限,或模型暂未开放。

建议的排查顺序

  1. 先看 URL

    确认客户端真的在访问 https://hivewa.store/v1

  2. 再看认证

    确认请求头带了正确的 Bearer Token。

  3. 再查模型列表

    调用 /v1/models 看该令牌的可见模型。

  4. 最后再确认服务状态

    如果模型可见但仍失败,通常说明当前服务容量不足、账号状态异常,或站点正在维护。

经验:“模型可见但请求 503” 往往不是客户端格式错,而是当前服务没有可用容量,或上游暂时异常。

Q&A

QQ群交流

有接入问题、部署问题或想交流使用经验,可以直接扫码进群。

群名称JingAPI
QQ群号1093348483

如果二维码失效,也可以直接在 QQ 中搜索群号 1093348483 申请加入。

JingAPI QQ 群二维码,群号 1093348483
为什么我已经有 API Key 了,但工具还是调用失败?

通常是 Base URL 填错、模型名不匹配,或者该令牌没有对应分组权限。

为什么模型可见,但接口还是返回没有可用服务?

这通常是服务侧容量不足、上游异常或站点正在维护。作为普通用户,优先先确认自己的令牌仍有效,再联系站点维护方。

我可以把这里替换成真正的文档框架吗?

可以。把当前目录替换成 VitePress、Docsify、MkDocs 之类的构建产物即可,Caddy 已经把它挂到了 /docs

为什么主站和 /docs 可以同时存在?

主站由 Sub2API 服务提供,而 /docs 是 Caddy 单独挂载的一套静态文档目录,两者不会互相影响。

为什么我的客户端能连通,但还是经常 429 / 503?

这通常说明接入层已经没问题,瓶颈在当前服务容量、令牌限流或上游状态。优先先确认自己的令牌和模型权限是否正常。

为什么 /v1/models 能返回,但真正请求模型却 503?

这说明你的令牌和模型权限本身大概率是正常的,但当前服务暂时没有可用容量,或上游模型侧异常。