今日实时用量统计
最多可查询3年内的数据
Today
今日额度状态
正在同步今日请求限额、Tokens 限额和额度卡状态。
额度卡使用情况
当前各张卡的剩余额度与到期时间
总花费
\$0.00
总请求
0
网络搜索
0
图片处理
0
总Tokens
0
输入Tokens
0
输出Tokens
0
缓存读写
0
模型费用分布
模型调用分布
模型服务使用详情
| 模型 | 请求数 | 网络搜索 | 输入Tokens | 输出Tokens | 缓存读写 | 图片数 | 花费 | 占比 |
|---|
每日趋势统计
| 日期 | 请求 | 花费 | Tokens | 图片 | 主要模型 |
|---|
账户额度查询
支持格式:sk-Xvs... 开头的 XAI API Key
查询结果
🌐 支持的 AI 服务提供商
✨ XAI 平台已兼容几乎所有主流 AI 服务提供商及模型生态,支持统一接入与灵活切换。
🧭 系统工作流程
从客户端请求到模型提供商,统一鉴权、路由与响应格式。
统一接入
客户端只需一个 XAI API Key 与统一的 base_url。
智能路由
鉴权、模型映射、限流与观测在路由层完成。
多模型输出
按需分发到 OpenAI、Claude、Gemini 等并统一回传。
💻 SDK 示例代码
OpenAI SDK 示例
import os
from openai import OpenAI
XAI_API_KEY = os.getenv("XAI_API_KEY")
client = OpenAI(
api_key=XAI_API_KEY,
base_url="",
)
completion = client.chat.completions.create(
model="gpt-5",
messages=[
{"role": "system", "content": "You are AI"},
{"role": "user", "content": "What is the meaning of life, the universe, and everything?"},
],
)
print(completion.choices[0].message)
Anthropic SDK 示例
import os
from anthropic import Anthropic
XAI_API_KEY = os.getenv("XAI_API_KEY")
client = Anthropic(
api_key=XAI_API_KEY,
base_url="",
)
message = client.messages.create(
model="claude-sonnet-4-5-20250929",
max_tokens=128,
system="You are AI.",
messages=[
{
"role": "user",
"content": "What is the meaning of life, the universe, and everything?",
},
],
)
print(message.content)
🧪 cURL 调用示例
OpenAI /responses
curl /responses \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $XAI_API_KEY" \
-d '{
"model": "gpt-5.4",
"input": "用一句话解释 Responses API 的作用。"
}'
OpenAI /chat/completions
curl /chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $XAI_API_KEY" \
-d '{
"model": "gpt-5.2",
"messages": [
{
"role": "developer",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'
Anthropic /messages
curl /v1/messages \
-H 'Content-Type: application/json' \
-H 'anthropic-version: 2023-06-01' \
-H "X-Api-Key: $XAI_API_KEY" \
-d '{
"max_tokens": 1024,
"messages": [
{
"content": "Hello, world",
"role": "user"
}
],
"model": "claude-sonnet-4-5-20250929"
}'
创建新的子账户
API 调用示例
cURL
Python
JavaScript
向子账户充值/扣款
API 调用示例
cURL
Python
JavaScript
充值历史
暂无充值记录
服务订单
暂无服务订单
配置说明
面向 Codex CLI / Codex App / Claude Code / OpenCode / OpenClaw 的统一接入说明。
统一前提:网关地址使用
(OpenAI 使用
);并配置环境变量
XAI_API_KEY。
Codex CLI / Codex App
Codex 现已仅支持 wire_api = "responses"。先将配置文件内容写入
~/.codex/config.toml(Windows:
%USERPROFILE%\.codex\config.toml),再在终端设置
XAI_API_KEY 并运行 codex。下面的
示例基于一份实际可用的
config.toml 模板,未包含本地项目路径相关的
[projects."..."] 配置。
使用顺序:先复制下面的 TOML 内容到配置文件,再把
XAI_API_KEY 持久化到你的 shell/profile,最后运行
codex。
写入 ~/.codex/config.toml(wire_api = "responses")
model_provider = "xai"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
model_reasoning_summary = "none"
model_verbosity = "medium"
approval_policy = "never"
sandbox_mode = "danger-full-access"
[model_providers.xai]
name = "OpenAI"
base_url = ""
wire_api = "responses"
requires_openai_auth = false
env_key = "XAI_API_KEY"
Linux(推荐写入 ~/.bashrc 后再启动)
echo 'export XAI_API_KEY="sk-Xvs..."' >> ~/.bashrc
source ~/.bashrc
codex
macOS(推荐写入 ~/.zshrc 后再启动)
echo 'export XAI_API_KEY="sk-Xvs..."' >> ~/.zshrc
source ~/.zshrc
codex
补充:部分较老的 macOS、旧终端或某些 IDE 会话仍可能沿用 bash 登录环境。如果你已经写入
~/.zshrc 但 codex 启动后仍读不到
XAI_API_KEY,请再同步写入
~/.bash_profile,必要时也补到
~/.bashrc。
Windows CMD(推荐持久化到用户环境变量)
setx XAI_API_KEY "sk-Xvs..."
:: 重新打开一个 CMD 窗口后执行
codex
Windows PowerShell(推荐持久化到用户环境变量)
[Environment]::SetEnvironmentVariable("XAI_API_KEY", "sk-Xvs...", "User")
# 重新打开一个 PowerShell 窗口后执行
codex
提示:上面的 env_key = "XAI_API_KEY" 只是告诉 Codex 去读取哪个环境变量;真正的密钥值仍然需要写入
~/.bashrc、~/.zshrc 或 Windows 用户环境变量后再启动新终端。对于部分较老的 macOS,
如果当前终端 / IDE 仍走 bash 登录环境,建议再同步写入
~/.bash_profile。
Claude Code(gpt-5.4)
Claude Code 主要通过环境变量接入。以下示例将默认模型映射到
gpt-5.4,网关地址使用
。
使用顺序:先复制对应系统的环境变量,再执行启动命令 claude。
环境变量配置(Linux / macOS)
export XAI_API_KEY="sk-Xvs..."
export ANTHROPIC_AUTH_TOKEN="$XAI_API_KEY"
export ANTHROPIC_BASE_URL=""
# 可选:自定义 Claude 默认模型映射(不配置也可正常使用)
export ANTHROPIC_DEFAULT_OPUS_MODEL="gpt-5.4"
export ANTHROPIC_DEFAULT_SONNET_MODEL="gpt-5.4"
export ANTHROPIC_DEFAULT_HAIKU_MODEL="gpt-5.4-mini"
环境变量配置(Windows CMD)
set XAI_API_KEY=sk-Xvs...
set ANTHROPIC_AUTH_TOKEN=%XAI_API_KEY%
set ANTHROPIC_BASE_URL=
:: 可选:自定义 Claude 默认模型映射(不配置也可正常使用)
set ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-5.4
set ANTHROPIC_DEFAULT_SONNET_MODEL=gpt-5.4
set ANTHROPIC_DEFAULT_HAIKU_MODEL=gpt-5.4-mini
环境变量配置(Windows PowerShell)
$env:XAI_API_KEY="sk-Xvs..."
$env:ANTHROPIC_AUTH_TOKEN=$env:XAI_API_KEY
$env:ANTHROPIC_BASE_URL=""
# 可选:自定义 Claude 默认模型映射(不配置也可正常使用)
$env:ANTHROPIC_DEFAULT_OPUS_MODEL="gpt-5.4"
$env:ANTHROPIC_DEFAULT_SONNET_MODEL="gpt-5.4"
$env:ANTHROPIC_DEFAULT_HAIKU_MODEL="gpt-5.4-mini"
启动与验证
claude
验证命令:claude
OpenCode(Responses: gpt-5.4 / Chat: MiniMax-M2.5)
OpenCode 建议使用全局配置文件
~/.config/opencode/opencode.jsonc(Windows:
%USERPROFILE%\.config\opencode\opencode.jsonc)。
先将方案 A 或方案 B 的 JSONC 内容写入配置文件,再按你的系统设置
XAI_API_KEY 并运行验证命令。
使用顺序:先选 API 方案(A = Responses,B = Chat)并写入配置文件,再复制对应系统的终端命令。
方案 A:写入 opencode.jsonc(Responses API)
{
"$schema": "https://opencode.ai/config.json",
"model": "openai/gpt-5.4",
"small_model": "openai/gpt-5.4",
"provider": {
"openai": {
"options": {
"baseURL": "",
"apiKey": "{env:XAI_API_KEY}"
}
}
}
}
方案 B:写入 opencode.jsonc(Chat API)
{
"$schema": "https://opencode.ai/config.json",
"model": "xai-chat/MiniMax-M2.5",
"small_model": "xai-chat/MiniMax-M2.5",
"provider": {
"xai-chat": {
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "",
"apiKey": "{env:XAI_API_KEY}"
},
"models": {
"MiniMax-M2.5": {}
}
}
}
}
Linux / macOS(设置密钥与验证)
export XAI_API_KEY="sk-Xvs..."
opencode debug config
opencode run "你好"
Windows CMD(设置密钥与验证)
set XAI_API_KEY=sk-Xvs...
opencode debug config
opencode run "你好"
Windows PowerShell(设置密钥与验证)
$env:XAI_API_KEY="sk-Xvs..."
opencode debug config
opencode run "你好"
请求示例 A:Responses API(gpt-5.4)
curl /responses \
-H "Authorization: Bearer ${XAI_API_KEY}" \
-H "Content-Type: application/json" \
-d '{
"model":"gpt-5.4",
"input":"用一句话解释微服务网关的作用"
}'
请求示例 B:Chat API(MiniMax-M2.5)
curl /chat/completions \
-H "Authorization: Bearer ${XAI_API_KEY}" \
-H "Content-Type: application/json" \
-d '{
"model":"MiniMax-M2.5",
"messages":[{"role":"user","content":"用一句话解释微服务网关的作用"}]
}'
验证命令:opencode debug config(确认配置)与 opencode run "你好"(验证调用)
OpenClaw
OpenClaw 可接入 OpenAI API、Claude API,并可扩展 OpenAI Responses
API。XAI Router 默认支持 OpenAI API 与 Claude API 两种协议;推荐优先使用
Responses,即 api = "openai-responses"。
配置文件路径:Linux / macOS 为
~/.openclaw/openclaw.json,Windows 为
%USERPROFILE%\.openclaw\openclaw.json。
使用顺序:先将下方 JSON 写入配置文件,再按系统设置
XAI_API_KEY,最后执行验证命令。
方式 1:OpenAI Responses API 兼容(推荐,api = "openai-responses")
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/gpt-5.4" }
}
},
"models": {
"mode": "merge",
"providers": {
"xairouter": {
"baseUrl": "",
"apiKey": "${XAI_API_KEY}",
"api": "openai-responses",
"models": [{ "id": "gpt-5.4", "name": "gpt-5.4" }]
}
}
}
}
方式 2:Claude API 兼容(api = "anthropic-messages")
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/MiniMax-M2.5" }
}
},
"models": {
"mode": "merge",
"providers": {
"xairouter": {
"baseUrl": "",
"apiKey": "${XAI_API_KEY}",
"api": "anthropic-messages",
"models": [{ "id": "MiniMax-M2.5", "name": "MiniMax-M2.5" }]
}
}
}
}
方式 3:OpenAI Chat API 兼容(api = "openai-completions")
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/MiniMax-M2.5" }
}
},
"models": {
"mode": "merge",
"providers": {
"xairouter": {
"baseUrl": "",
"apiKey": "${XAI_API_KEY}",
"api": "openai-completions",
"models": [{ "id": "MiniMax-M2.5", "name": "MiniMax-M2.5" }]
}
}
}
}
Linux / macOS(设置密钥)
export XAI_API_KEY="sk-Xvs..."
Windows CMD(设置密钥)
set XAI_API_KEY=sk-Xvs...
Windows PowerShell(设置密钥)
$env:XAI_API_KEY="sk-Xvs..."
验证命令
openclaw models status
验证命令:openclaw models status
查看子账户信息
API 调用示例
cURL
Python
JavaScript
更新子账户信息
API 调用示例
cURL
Python
JavaScript
子账户列表
0 个子账户暂无子账户
当前账号还未创建子账户
删除子账户
删除操作不可撤销,子账户 Key 将即刻失效
API 调用示例
cURL
Python
JavaScript
洞察子账户
正在获取账单数据...
无法加载账单数据
请检查网络和 API 权限后重试
总花费
$0.00
总请求
0
网络搜索
0
图片处理
0
总Tokens
0
输入Tokens
0
输出Tokens
0
缓存读写
0
模型费用分布
模型调用分布
成本趋势分析
每日趋势统计
子账户消耗概览
对比子账户请求与成本分布,快速识别异常调用
| 用户 | 请求数 | 网络搜索 | 输入Tokens | 输出Tokens | 缓存读写 | 图片数 | 费用最多模型 | 请求最多模型 | 成本 | 成本占比 | 请求占比 |
|---|
模型费用与调用分布
汇总模型请求占比与成本结构,定位主要成本来源
| 模型 | 请求数 | 网络搜索 | 输入 | 输出 | 成本 | 请求占比 | 成本占比 |
|---|
每日账单明细
按日查看总成本、模型占比与缓存读写,追踪区间趋势
操作日志
| 时间 | 行为 | 目标 | 详情 | IP |
|---|
正在加载日志...
暂无操作日志