面向开发工具的 GPT 接入文档
JingAPI 提供 OpenAI 兼容的 API 网关,适配 Codex、Claude Code、OpenCode 等工具, 让你用统一的令牌和 Base URL 接入当前可用的 GPT 模型。
/v1/responses 与 gpt-5.4-mini 做联调,
如果你的账号组是 Codex / Responses 类型,这样更容易一次跑通。
1093348483
有接入、部署或使用问题可直接进群交流。
你可能最先需要的内容
{
"provider": "JingAPI",
"base_url": "https://hivewa.store/v1",
"model": "gpt-5.4-mini",
"status": "ready"
}
快速接入
最快只需要一个 Base URL 和一个 API Key。
-
登录 JingAPI 后台
确认你已经有可用账户,并能在平台中创建可用的 API Key。
-
获取 API Key
在用户侧或后台创建令牌,记下以
sk-开头的密钥。 -
设置 Base URL
将客户端指向
https://hivewa.store/v1,即可按 OpenAI 兼容方式调用。
https://hivewa.store/v1 而不是裸域名。
最小 curl 示例
curl https://hivewa.store/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-token" \
-d '{
"model": "gpt-5.4-mini",
"messages": [
{"role": "user", "content": "Hello from JingAPI"}
]
}'
https://hivewa.store/v1。不要只填裸域名,也不要在 SDK 已经自动拼接 /v1 时重复追加。
Python 示例
from openai import OpenAI
client = OpenAI(
api_key="sk-your-token",
base_url="https://hivewa.store/v1"
)
response = client.chat.completions.create(
model="gpt-5.4-mini",
messages=[{"role": "user", "content": "Hello from JingAPI"}]
)
print(response.choices[0].message.content)
Node.js 示例
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "sk-your-token",
baseURL: "https://hivewa.store/v1",
});
const response = await client.chat.completions.create({
model: "gpt-5.4-mini",
messages: [{ role: "user", content: "Hello from JingAPI" }],
});
console.log(response.choices[0].message.content);
注册账号
如果站点开放注册,先创建一个 JingAPI 账户,再继续充值和创建 API Key。
打开注册页
进入主站注册页面,填写系统要求的注册信息。
完成验证
如果启用了邮箱验证、邀请码或注册限制,请按页面提示完成。
进入控制台
注册成功后即可登录控制台,继续充值和创建令牌。
登录使用
登录后你可以查看余额、令牌、使用量和个人设置。
https://hivewa.store/docs进入登录页
使用你自己的账户凭据登录 JingAPI。
确认权限
登录成功后,先确认你所在分组、订阅或令牌权限是否已经准备好。
开始创建令牌
在控制台中进入 API Key 页面,为客户端接入准备 Bearer Token。
额度充值
调用模型前,请先确认账户有足够的余额、订阅或兑换额度。
- 如果站点开启了充值或购买入口,可直接在钱包或订阅页完成。
- 如果站点使用兑换码模式,请先兑换余额或订阅额度。
- 如果是内部或邀请制站点,也可能由站点维护方直接分配余额或订阅。
insufficient_quota 或显示余额不足时,先补足额度,再继续排查模型权限。获取令牌
所有对外 API 调用都依赖 Bearer Token,所以这一步是接入前的核心操作。
进入令牌管理
登录后打开用户控制台中的 API Key / 令牌管理页面。
创建新令牌
填写名称,必要时限制分组、用途或额度,然后创建一条新的 Key。
妥善保存
复制生成的
sk-...密钥,保存到环境变量或密码管理器中。
Authorization: Bearer sk-your-token
Codex 配置
推荐通过 config.toml + auth.json 方式接入 JingAPI 的 Responses 能力。
config.toml 示例
disable_response_storage = true
model = "gpt-5.4"
model_provider = "JingAPI"
model_reasoning_effort = "high"
[model_providers."JingAPI"]
name = "JingAPI"
base_url = "https://hivewa.store/v1"
requires_openai_auth = true
wire_api = "responses"
auth.json 示例
{
"OPENAI_API_KEY": "sk-your-token"
}
auth.json 里建议只保留 OPENAI_API_KEY。不要混入注释、历史字段或多套 Provider 数据,避免 Codex 读取异常。
推荐检查顺序
先确认 Provider 名称
model_provider和[model_providers."JingAPI"]必须完全一致。再确认 Base URL
写成
https://hivewa.store/v1,不要漏掉/v1,也不要重复拼接。最后确认模型
如果默认模型不可用,先调用
GET /v1/models,再把返回结果中的模型名写回配置。
验证命令
codex
codex "帮我检查当前项目结构"
codex exec "列出当前仓库里最值得先修的三个问题"
Claude Code 配置
如果你走 Anthropic 风格环境变量,关键是把 Host 指向 JingAPI,并把默认模型统一改成你当前可用的 GPT 模型。
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-your-token",
"ANTHROPIC_BASE_URL": "https://hivewa.store",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4",
"ANTHROPIC_MODEL": "gpt-5.4",
"ANTHROPIC_REASONING_MODEL": "gpt-5.4"
}
}
接入步骤
准备令牌
先在 JingAPI 控制台生成可用 API Key,并确认它确实能看到目标模型。
统一模型名
把默认模型和 reasoning 模型统一改成同一个可用模型,排除“部分环境变量没同步”的干扰。
从简单请求开始验证
先测试最基础的对话,再启用更复杂的工作流或工具调用。
常见排查
- 如果工具能启动但请求失败,先确认真实发出的请求 Host 是不是
hivewa.store。 - 如果报 401,优先检查是不是误用了其他系统的令牌,而不是当前站点的 API Key。
- 如果报 503,很可能是分组里没有可调度账号,而不是本地客户端配置错了。
OpenCode 配置
推荐先通过 /connect 保存鉴权,再在 opencode.json 里声明 JingAPI Provider。
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"JingAPI": {
"npm": "@ai-sdk/openai-compatible",
"name": "JingAPI",
"options": {
"baseURL": "https://hivewa.store/v1"
},
"models": {
"gpt-5.4": {
"model": "gpt-5.4",
"name": "GPT-5.4",
"options": {
"variant": "high"
},
"limit": {
"context": 200000,
"output": 8192
}
}
}
}
},
"model": "JingAPI/gpt-5.4",
"small_model": "JingAPI/gpt-5.4"
}
推荐做法
- 先在 TUI 里执行
/connect,把 Provider ID 固定为JingAPI。 - 配置文件中的 Provider ID、模型前缀和连接时填写的 Provider ID 要保持一致。
- 先跑通最小请求,再逐步添加默认模型、路由或本地代理设置。
OpenClaw 配置
推荐通过自定义 Provider 方式接入 JingAPI,不要只改一条裸的 Base URL。
"providers": {
"JingAPI": {
"baseUrl": "https://hivewa.store",
"apiKey": "sk-your-token",
"api": "openai-completions",
"headers": {
"User-Agent": "Mozilla/5.0",
"Accept": "application/json"
},
"models": [
{
"id": "gpt-5.4",
"name": "gpt-5.4",
"reasoning": true,
"input": ["text", "image"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 200000,
"maxTokens": 32768
}
]
}
},
"agents": {
"defaults": {
"model": {
"primary": "JingAPI/gpt-5.4"
}
}
}
排查建议
- 如果 OpenClaw 本地界面能起来,但模型请求失败,通常是账号或分组侧的问题,不是 Provider 结构本身的问题。
- 如果请求直接报连接错误,优先检查 Base URL 是否写对,以及本地 JSON 有没有语法错误。
接口概述
JingAPI 暴露的是 OpenAI 兼容接口,最常用的是 Chat Completions 和 Responses。
https://hivewa.store/v1Authorization: Bearer sk-.../chat/completions、/responses、/models调用原则
- 客户端统一走 OpenAI 兼容协议,不需要为不同模型单独改 SDK。
- 可见模型由后台分组、账号状态和路由规则共同决定。
- 如果你的工具支持新版接口,优先考虑
/v1/responses;兼容性优先时用/v1/chat/completions。
Chat Completions
适合最常见的对话式调用。
POST /v1/chat/completions
Authorization: Bearer sk-your-token
Content-Type: application/json
{
"model": "gpt-5.4-mini",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Write a short summary."}
]
}
常用字段
| 字段 | 作用 | 说明 |
|---|---|---|
model | 指定模型 | 必须使用当前令牌可见的模型名 |
messages | 对话数组 | 按 system / user / assistant 组织 |
stream | 流式返回 | 排查阶段建议先关闭,便于定位错误 |
temperature | 采样温度 | 不需要时可保持默认 |
什么时候优先用它
- 你用的是传统 OpenAI SDK。
- 你更看重兼容性,而不是新版统一响应结构。
- 你只是做普通多轮对话、文本生成或简单工具调用。
Responses
适合新版 OpenAI 风格客户端、更强推理任务和更统一的响应结构。
POST /v1/responses
Authorization: Bearer sk-your-token
Content-Type: application/json
{
"model": "gpt-5.4",
"input": "Explain how to connect to JingAPI.",
"reasoning": {"effort": "medium"},
"max_output_tokens": 800
}
常用字段
| 字段 | 作用 | 说明 |
|---|---|---|
model | 指定模型 | 必须使用当前令牌可见的模型名 |
input | 输入内容 | 可为字符串或消息数组 |
instructions | 系统说明 | 适合补充角色与约束 |
reasoning.effort | 推理强度 | 常见值为 low / medium / high |
max_output_tokens | 输出上限 | 建议联调时显式设置,避免返回过长 |
tools | 工具定义 | 复杂任务时使用 |
previous_response_id | 多轮串联 | 需要承接上一轮上下文时使用 |
stream | 流式返回 | 排障阶段建议先关闭 |
更适合的场景
- 你使用的是新版 OpenAI 客户端或 Codex 风格工具。
- 你希望获得更统一的响应结构,便于后续扩展。
- 你的账号本身更偏向 Codex / Responses 路由,而不是传统 chat 路由。
/v1/chat/completions 报 503,而后台账号是 Codex / Responses 类型,优先改用 /v1/responses 测试。模型与 Base URL
模型可见性取决于你的令牌权限、当前账号状态和站点配置。
GET /v1/models
Authorization: Bearer sk-your-token
返回结果中的模型列表,就是这个令牌当前可见的模型集合。
推荐流程
先查
/v1/models不要凭记忆填写模型名,始终先看实际返回。
再写到客户端
把返回结果中的模型名复制到工具配置里,避免手写错误。
调用失败就回查
如果后面报模型不可用,重新查一次模型列表,再确认当前账户是否仍具备对应权限。
错误排查
接入失败时,先看状态码和 error.code,再区分是客户端配置、令牌权限还是服务侧容量问题。
常见 HTTP 状态码
| 状态码 | 含义 | 优先处理方式 |
|---|---|---|
400 | 请求参数错误 | 检查 JSON 结构、字段名和模型名 |
401 | 认证失败 | 确认是否用了正确的 API Key |
403 | 权限不足 | 检查令牌是否有分组或模型权限 |
404 | 路径不存在 | 确认接口路径和 Base URL 拼接是否正确 |
413 | 请求体过大 | 减小上下文、文件或图片体积 |
429 | 频率超限 | 降低请求频率,或检查限流配置 |
500 | 服务内部错误 | 稍后重试;持续出现时联系站点维护方 |
502 | 上游异常 | 通常是提供商暂时不可用 |
503 | 服务暂不可用 | 通常是当前服务容量不足、模型暂时不可用,或站点侧正在维护 |
常见 error.code
error.code | 含义 | 排查方向 |
|---|---|---|
invalid_api_key | 令牌无效 | 检查是否复制完整、是否误用了其他系统的密钥 |
insufficient_quota | 额度不足 | 充值、兑换或切换到有余额的令牌 |
model_not_found | 模型当前不可用 | 先查 /v1/models 再确认当前账户是否具备该模型权限 |
context_length_exceeded | 上下文过长 | 裁剪历史消息、文件或输入文本 |
unsupported_endpoint | 接口不匹配 | 必要时从 /v1/chat/completions 切到 /v1/responses |
- 401:令牌无效、过期,或请求头里用了错误的密钥。
- 429:令牌或账号触发限流。
- 503:站点当前没有可用容量,或上游全部异常。
- 模型不存在:当前账户没有该模型权限,或模型暂未开放。
建议的排查顺序
先看 URL
确认客户端真的在访问
https://hivewa.store/v1。再看认证
确认请求头带了正确的 Bearer Token。
再查模型列表
调用
/v1/models看该令牌的可见模型。最后再确认服务状态
如果模型可见但仍失败,通常说明当前服务容量不足、账号状态异常,或站点正在维护。
Q&A
QQ群交流
有接入问题、部署问题或想交流使用经验,可以直接扫码进群。
1093348483如果二维码失效,也可以直接在 QQ 中搜索群号 1093348483 申请加入。
为什么我已经有 API Key 了,但工具还是调用失败?
通常是 Base URL 填错、模型名不匹配,或者该令牌没有对应分组权限。
为什么模型可见,但接口还是返回没有可用服务?
这通常是服务侧容量不足、上游异常或站点正在维护。作为普通用户,优先先确认自己的令牌仍有效,再联系站点维护方。
我可以把这里替换成真正的文档框架吗?
可以。把当前目录替换成 VitePress、Docsify、MkDocs 之类的构建产物即可,Caddy 已经把它挂到了 /docs。
为什么主站和 /docs 可以同时存在?
主站由 Sub2API 服务提供,而 /docs 是 Caddy 单独挂载的一套静态文档目录,两者不会互相影响。
为什么我的客户端能连通,但还是经常 429 / 503?
这通常说明接入层已经没问题,瓶颈在当前服务容量、令牌限流或上游状态。优先先确认自己的令牌和模型权限是否正常。
为什么 /v1/models 能返回,但真正请求模型却 503?
这说明你的令牌和模型权限本身大概率是正常的,但当前服务暂时没有可用容量,或上游模型侧异常。