⚡ 稳定 · 快速 · 按量计费

一个 API Key
连接全球顶尖大模型

支持 Claude、GPT、Gemini 等主流模型,统一接口,按量计费,开发者首选。

为什么选择核桃token

简洁、稳定、省钱——专为开发者设计

🔗

统一接口

OpenAI 兼容格式,一个 Key 调用所有模型,无需修改现有代码,即插即用。

💰

按量计费

用多少付多少,无月费,无最低消费,充值即用,余额永不过期。

稳定快速

多渠道负载均衡,自动故障转移,99.9% 可用性,低延迟直连官方接口。

支持的模型

持续接入最新、最强的 AI 大模型

Claude 系列
GPT 系列
Gemini 系列
DeepSeek 系列
Grok 系列
Mistral 系列
Llama 系列

灵活定价

无门槛起步,按需扩展

🪙
按量付费
充值即用,无任何门槛
所有主流模型均可访问
实时用量统计
余额永不过期
API 密钥随时创建
💻
Codex 专属
OpenAI 最新代码模型
GPT-5.5 / GPT-5.4
o3 / o4-mini
代码生成优化
函数调用支持

查看完整价格 → 模型价格页

常见问题

支持 Claude(Opus、Sonnet、Haiku)、GPT 系列(o1、o3、GPT-4o、GPT-5)、Gemini(Pro、Flash)、DeepSeek(V3、R1)、Grok、Mistral、Llama 等主流模型,并持续更新。
按 Token 用量计费,与官方定价基本一致,部分模型有优惠折扣。先充值后使用,余额实时扣减,无任何隐藏费用,充值余额永不过期。
完全兼容 OpenAI API 格式。只需将 base_url 改为 https://api.hetaoapi.com,替换 API Key,代码无需其他修改。
注册账号后,在控制台「令牌管理」页面创建 API Key,充值后即可使用。详细步骤请参考文档教程

模型价格

以人民币默认展示官方价格和分组价格,方便直接比较成本。

Node.js 环境安装教程

Codex、Claude Code 等工具均需要 Node.js 运行环境,请先按照以下步骤完成安装。

1下载 Node.js 安装包
访问 Node.js 官方网站,下载 LTS(长期支持)版本的 Windows 安装包(.msi)。
URL
https://nodejs.org/zh-cn/download
2运行安装程序
双击下载的 .msi 文件,按照安装向导一路点击"下一步"完成安装。安装时勾选"Add to PATH"选项(默认已勾选)。
3验证安装
打开命令提示符(Win+R,输入 cmd),执行以下命令验证安装是否成功:
CMD
node -v
npm -v
若输出版本号(如 v22.x.x),则说明安装成功。
4(可选)使用 nvm-windows 管理多版本
如果需要管理多个 Node.js 版本,推荐使用 nvm-windows:
URL
https://github.com/coreybutler/nvm-windows/releases
1使用 Homebrew 安装(推荐)
如果已安装 Homebrew,直接运行:
bash
brew install node
💡如未安装 Homebrew,先执行:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
2或使用 nvm 管理多版本(推荐)
bash
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash

# 重新加载 shell 配置
source ~/.zshrc  # 或 source ~/.bashrc

# 安装最新 LTS 版本
nvm install --lts
nvm use --lts
3验证安装
bash
node -v
npm -v
1使用 NodeSource 官方源安装(Ubuntu/Debian)
bash
# 下载并运行安装脚本
curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash -

# 安装 Node.js
sudo apt-get install -y nodejs
2或使用 nvm(推荐,适用所有发行版)
bash
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash

# 加载 nvm
export NVM_DIR="$HOME/.nvm"
[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"

# 安装最新 LTS
nvm install --lts
nvm use --lts
3验证安装
bash
node -v
npm -v
若输出版本号则安装成功。建议 Node.js 版本 ≥ 18。

Codex 配置教程

OpenAI Codex CLI 是一款基于终端的 AI 编程助手,通过核桃token可使用满血 GPT 模型。

1安装 Codex CLI
确保已安装 Node.js(≥18),然后全局安装 Codex:
bash
npm install -g @openai/codex
2配置 ~/.codex/config.toml
创建或编辑配置文件,将 API 接入地址指向核桃token:
在 Windows 上,配置文件位于 %USERPROFILE%\.codex\config.toml
PowerShell
# 创建目录
mkdir $env:USERPROFILE\.codex -Force

# 打开记事本编辑配置文件
notepad $env:USERPROFILE\.codex\config.toml
bash
mkdir -p ~/.codex
nano ~/.codex/config.toml
3填写配置内容
将以下内容写入 config.toml,将 YOUR_API_KEY 替换为你的核桃token Key
toml
model = "gpt-5.3-codex"
approval_policy = "unless-allow-listed"

[providers.openai]
name = "OpenAI"
base_url = "https://api.hetaoapi.com/v1"
env_key = "OPENAI_API_KEY"
4设置环境变量
在 PowerShell 中设置(当前会话):
PowerShell
$env:OPENAI_API_KEY = "YOUR_API_KEY"
或在系统环境变量中永久设置:控制面板 → 系统 → 高级系统设置 → 环境变量
bash
# 添加到 ~/.bashrc 或 ~/.zshrc
export OPENAI_API_KEY="YOUR_API_KEY"

# 立即生效
source ~/.bashrc
5启动 Codex
bash
codex
成功后将看到 Codex 交互界面,可以开始编程对话了。

可用模型参考
模型 ID说明
gpt-5.3-codex最新代码模型,Codex 系列能力天花板(推荐)
gpt-5.5旗舰模型,综合能力最强
gpt-5.4复杂工程任务推荐
gpt-5.4-mini轻量快速,成本低

Claude Code 配置教程

Claude Code 是 Anthropic 推出的 AI 编程智能体,通过核桃token可访问 Claude 全系列模型。

1安装 Claude Code
确保已安装 Node.js(≥18),然后全局安装:
bash
npm install -g @anthropic-ai/claude-code
2配置环境变量
Claude Code 通过环境变量接受自定义 API 地址,需要设置以下变量:
在 PowerShell 中临时设置(当前会话有效):
PowerShell
$env:ANTHROPIC_BASE_URL = "https://api.hetaoapi.com"
$env:ANTHROPIC_AUTH_TOKEN = "YOUR_API_KEY"

# 启动 Claude Code
claude
永久设置(写入 PowerShell Profile):
PowerShell
# 打开 Profile 文件
notepad $PROFILE

# 在文件中添加以下内容:
$env:ANTHROPIC_BASE_URL = "https://api.hetaoapi.com"
$env:ANTHROPIC_AUTH_TOKEN = "YOUR_API_KEY"
bash
# 添加到 ~/.bashrc
echo 'export ANTHROPIC_BASE_URL="https://api.hetaoapi.com"' >> ~/.bashrc
echo 'export ANTHROPIC_AUTH_TOKEN="YOUR_API_KEY"' >> ~/.bashrc

# 立即生效
source ~/.bashrc

# 启动
claude
bash
# 添加到 ~/.zshrc(macOS 默认 zsh)
echo 'export ANTHROPIC_BASE_URL="https://api.hetaoapi.com"' >> ~/.zshrc
echo 'export ANTHROPIC_AUTH_TOKEN="YOUR_API_KEY"' >> ~/.zshrc

# 立即生效
source ~/.zshrc

# 启动
claude
3环境变量说明
变量名说明
ANTHROPIC_BASE_URLhttps://api.hetaoapi.com核桃token 接入地址
ANTHROPIC_AUTH_TOKENYOUR_API_KEY你的 API Key
4跳过登录直接使用
首次启动时 Claude Code 会要求登录,通过设置环境变量可跳过此步骤:
bash
# 直接指定 API Key 启动,跳过登录
ANTHROPIC_BASE_URL=https://api.hetaoapi.com ANTHROPIC_AUTH_TOKEN=YOUR_API_KEY claude
💡推荐将环境变量写入 shell 配置文件,这样每次打开终端都自动生效。

可用模型参考
模型 ID说明
claude-opus-4-7最新旗舰模型,综合能力最强
claude-opus-4-6智能代理与编码旗舰
claude-sonnet-4-6平衡性能与速度(推荐日常使用)
claude-haiku-4-5快速响应,适合简单任务

Gemini CLI 配置教程

Gemini CLI 是 Google 推出的终端 AI 助手,通过核桃token可访问 Gemini 全系列模型。

1安装 Gemini CLI
确保已安装 Node.js(≥18),然后全局安装:
bash
npm install -g @google/gemini-cli
2配置环境变量
通过环境变量将 Gemini CLI 接入核桃token:
PowerShell
$env:GOOGLE_GEMINI_BASE_URL = "https://api.hetaoapi.com/v1"
$env:GEMINI_API_KEY = "YOUR_API_KEY"

# 启动
gemini
永久设置(写入 PowerShell Profile):
PowerShell
notepad $PROFILE

# 在文件中添加:
$env:GOOGLE_GEMINI_BASE_URL = "https://api.hetaoapi.com/v1"
$env:GEMINI_API_KEY = "YOUR_API_KEY"
bash
# 添加到 ~/.bashrc
echo 'export GOOGLE_GEMINI_BASE_URL="https://api.hetaoapi.com/v1"' >> ~/.bashrc
echo 'export GEMINI_API_KEY="YOUR_API_KEY"' >> ~/.bashrc

source ~/.bashrc

# 启动
gemini
bash
# 添加到 ~/.zshrc
echo 'export GOOGLE_GEMINI_BASE_URL="https://api.hetaoapi.com/v1"' >> ~/.zshrc
echo 'export GEMINI_API_KEY="YOUR_API_KEY"' >> ~/.zshrc

source ~/.zshrc

# 启动
gemini
3环境变量说明
变量名说明
GOOGLE_GEMINI_BASE_URLhttps://api.hetaoapi.com/v1核桃token 接入地址
GEMINI_API_KEYYOUR_API_KEY你的 API Key
💡设置 GOOGLE_GEMINI_BASE_URL 后,Gemini CLI 会自动跳过 Google 登录验证,直接使用自定义 API 地址。
4验证配置
bash
# 单次运行测试
gemini -p "你好,测试一下"

可用模型参考
模型 ID说明
gemini-3.1-pro-preview最新预览版,性能最强
gemini-3-pro-preview旗舰版本
gemini-2.5-pro稳定版旗舰
gemini-2.5-flash快速响应,性价比高
gemini-3-flash-preview最新快速预览版

OpenClaw 配置教程

OpenClaw 是新一代 AI Agent 平台,支持多模型、多工具调用。通过核桃token可接入全系列模型。

1安装 OpenClaw
确保已安装 Node.js(≥18),然后全局安装:
bash
npm install -g openclaw
2通过 onboard 命令配置核桃token
使用 openclaw onboard 命令配置 API 接入,支持 Anthropic 和 OpenAI 兼容接口:
接入 Anthropic(Claude 系列)
bash
openclaw onboard \
  --provider anthropic \
  --api-key YOUR_API_KEY \
  --custom-base-url https://api.hetaoapi.com
接入 OpenAI(GPT/Codex 系列)
bash
openclaw onboard \
  --provider openai \
  --api-key YOUR_API_KEY \
  --custom-base-url https://api.hetaoapi.com/v1
接入 Gemini 系列
bash
openclaw onboard \
  --provider gemini \
  --api-key YOUR_API_KEY \
  --custom-base-url https://api.hetaoapi.com/v1
3Windows 命令格式
在 Windows PowerShell 中,使用反引号续行:
PowerShell
openclaw onboard `
  --provider anthropic `
  --api-key YOUR_API_KEY `
  --custom-base-url https://api.hetaoapi.com
4启动 OpenClaw
bash
openclaw
配置完成后直接运行 openclaw 即可启动,无需额外参数。

参数说明
参数说明
--provider提供商:anthropic / openai / gemini
--api-key你的核桃token Key
--custom-base-urlAPI 接入地址(见上方)

Hermes 配置教程

Hermes 是轻量级 AI 终端助手,支持多 Provider 配置,通过核桃token可访问所有主流模型。

1安装 Hermes
确保已安装 Node.js(≥18),然后全局安装:
bash
npm install -g @anthropic-ai/hermes
⚠️请参考 Hermes 官方文档确认正确的包名,以上为示例。
2创建配置文件
Hermes 通过 ~/.hermes/config.yaml 进行配置:
PowerShell
mkdir $env:USERPROFILE\.hermes -Force
notepad $env:USERPROFILE\.hermes\config.yaml
bash
mkdir -p ~/.hermes
nano ~/.hermes/config.yaml
3配置接入核桃token(Anthropic)
使用 Claude 系列模型时,将 config.yaml 配置为:
yaml
provider: anthropic
api_key: YOUR_API_KEY
base_url: https://api.hetaoapi.com
model: claude-sonnet-4-6

# 可选配置
max_tokens: 8192
temperature: 0.7
4配置接入核桃token(OpenAI 兼容)
使用 GPT/Codex 系列模型时:
yaml
provider: openai
api_key: YOUR_API_KEY
base_url: https://api.hetaoapi.com/v1
model: gpt-5.3-codex

# 可选配置
max_tokens: 8192
temperature: 0.7
5配置接入核桃token(Gemini)
使用 Gemini 系列模型时:
yaml
provider: openai
api_key: YOUR_API_KEY
base_url: https://api.hetaoapi.com/v1
model: gemini-2.5-pro

# 可选配置
max_tokens: 8192
temperature: 0.7
💡核桃token 对 Gemini 提供 OpenAI 兼容接口,provider 填 openai,base_url 用 https://api.hetaoapi.com/v1
6启动 Hermes
bash
hermes
配置完成后直接运行 hermes 即可,Hermes 会自动读取 config.yaml。

配置参数说明
参数说明
provideranthropicopenai(Gemini 也用 openai)
api_key你的核桃token Key
base_urlAnthropic: https://api.hetaoapi.com
OpenAI/Gemini: https://api.hetaoapi.com/v1
model模型 ID,如 claude-sonnet-4-6gpt-5.3-codex
max_tokens最大输出 token 数(可选)
temperature输出随机性(0-1,可选)