文章

告别代理、限流和天价账单:用 OpenClaw 接入 OfoxAI 统一 LLM Gateway

告别代理、限流和天价账单:用 OpenClaw 接入 OfoxAI 统一 LLM Gateway

“我只想调个 API,不想当网络工程师。” —— 每个被代理折磨过的 AI 开发者

一、先吐槽:现在用官方 API 有多痛

作为一个天天跟 LLM 打交道的工程师,我来数数这一年踩过的坑:

1. 代理地狱

想用 OpenAI?先配代理。Claude?代理。Gemini?代理。

1
2
3
4
5
# 我的 .zshrc 已经被这些东西污染了
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890
export ALL_PROXY=socks5://127.0.0.1:7890
# 然后还要设置 no_proxy 避免本地请求走代理...

每次换环境、换机器、换网络,都要折腾一遍。服务器上更惨——要么自己搭代理,要么买香港/新加坡的机器专门中转。

时间成本 ≈ ∞

2. 限流噩梦

终于能调通了?恭喜你,开始享受限流的快乐:

厂商 限制 实际体验
OpenAI TPM + RPM + 每日额度 跑个批量任务动不动 429
Claude RPM 限制,Opus 更严 高峰期排队像春运
Gemini 免费版直接不让用 Pro 版也限得厉害

我在跑一个代码审查任务时,被 OpenAI 限流 12 次。12 次!每次等 60 秒冷却,光等待就浪费了 12 分钟。

3. 账单爆炸

模型 输入 (1M tokens) 输出 (1M tokens)
GPT-4 Turbo $10 $30
Claude Opus $15 $75
Gemini Ultra $7 $21

一个不小心,月底账单四位数。我见过有人调试代码时忘关循环,一晚上烧了 $800。

4. 多账号管理

想同时用 OpenAI + Claude + Gemini?准备好:

  • 3 个 API Key
  • 3 套 SDK
  • 3 个计费账户
  • 3 套限流策略
  • 3 个 Dashboard 来回切换查用量
1
2
3
4
5
6
7
8
# 我之前的代码长这样
if model.startswith("gpt"):
    client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
elif model.startswith("claude"):
    client = Anthropic(api_key=os.getenv("ANTHROPIC_API_KEY"))
elif model.startswith("gemini"):
    client = genai.Client(api_key=os.getenv("GOOGLE_API_KEY"))
# ... 写到怀疑人生

二、找了一圈,发现了 OfoxAI

在被折磨了无数次之后,我开始找有没有统一的解决方案。

试过几个:

  • OpenRouter:能用,但还是要自己处理代理问题,而且部分模型延迟较高
  • AWS Bedrock:国内访问还是需要代理,而且配置复杂得让人想哭
  • Azure OpenAI:备案、审核、合规……光流程就走了两周

最后发现了 OfoxAI

为什么选 OfoxAI?

1. 一个 API,50+ 模型

OfoxAI 同时支持 Anthropic 原生协议 和 OpenAI 兼容协议。推荐使用 Anthropic 协议,能完整支持 Claude 的所有特性(extended thinking、tool use 等):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
from anthropic import Anthropic

client = Anthropic(
    base_url="https://api.ofox.ai/anthropic",
    api_key="<YOUR_OFOXAI_KEY>"
)

# 用 Claude Opus
response = client.messages.create(
    model="anthropic/claude-opus-4.5",
    max_tokens=4096,
    messages=[{"role": "user", "content": "Hello!"}]
)

# 切换到 Sonnet,只改一个参数
response = client.messages.create(
    model="anthropic/claude-sonnet-4.5",
    max_tokens=4096,
    messages=[{"role": "user", "content": "Hello!"}]
)

一个 endpoint,一个 API key,所有模型。

2. 原生云厂渠道

这是我最看重的——OfoxAI 不是野路子代理,用的是官方云厂的原生 API 渠道。意味着:

  • 稳定性有保障
  • 不会被官方封杀
  • 响应延迟跟直连差不多

3. 国内直连

不!需!要!代!理!

1
2
3
4
5
6
7
8
9
10
# 再也不用设这些了
# export HTTP_PROXY=...
# export HTTPS_PROXY=...

# 直接调(Anthropic 协议)
curl https://api.ofox.ai/anthropic/v1/messages \
  -H "x-api-key: $OFOXAI_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model": "anthropic/claude-sonnet-4.5", "max_tokens": 1024, "messages": [{"role": "user", "content": "Hi"}]}'

4. 统一计费,更便宜

一个账户管理所有模型的用量和费用。而且因为批量采购,价格比官方直接买还便宜。

三、OpenClaw 接入 OfoxAI 实战

好了,吐槽完了,讲正事。作为 OpenClaw 的重度用户,我来演示怎么接入 OfoxAI。

Step 1: 获取 OfoxAI API Key

https://ofox.ai 注册,在控制台创建一个 API Key。

Step 2: 配置 OpenClaw

编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json5):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
{
  // 设置 OfoxAI 的环境变量
  env: {
    OFOXAI_API_KEY: "your-ofoxai-api-key-here"
  },

  // 配置 OfoxAI 作为 provider(使用 Anthropic 协议)
  providers: {
    ofoxai: {
      type: "anthropic",  // 推荐使用 Anthropic 原生协议
      baseURL: "https://api.ofox.ai/anthropic",
      apiKeyEnv: "OFOXAI_API_KEY"
    }
  },

  // 设置默认模型
  agents: {
    defaults: {
      model: {
        primary: "ofoxai/anthropic/claude-opus-4.5"
      }
    }
  }
}

为什么用 Anthropic 协议? OpenClaw 底层就是基于 Claude 构建的,使用 Anthropic 原生协议能完整支持 extended thinking、tool use、vision 等高级特性,体验最佳。

Step 3: 验证配置

1
openclaw status

看到模型正确加载就 OK 了。

Step 4: 模型切换

OfoxAI 支持的模型命名格式是 <provider>/<model>

模型 OfoxAI 标识
GPT-4 Turbo openai/gpt-4-turbo
GPT-4o openai/gpt-4o
Claude Opus 4.5 anthropic/claude-opus-4.5
Claude Sonnet 4.5 anthropic/claude-sonnet-4.5
Gemini 2.0 Flash google/gemini-2.0-flash
DeepSeek V3 deepseek/deepseek-chat

在 OpenClaw 中使用时,加上 ofoxai/ 前缀:

1
2
3
4
5
6
7
8
9
10
{
  agents: {
    defaults: {
      model: {
        primary: "ofoxai/anthropic/claude-opus-4.5",
        fast: "ofoxai/anthropic/claude-sonnet-4.5"
      }
    }
  }
}

四、实际使用体验

用了两周,说几个真实感受:

1. 再也没折腾过代理

这是最爽的。不管在公司、家里、还是咖啡馆,打开电脑就能用。服务器上更是直接跑,零配置。

2. 模型切换丝滑

测试不同模型效果时,以前要改环境变量、换 SDK、重启服务。现在改一个字符串就行:

1
2
3
4
5
6
7
8
# 测试 GPT-4o
openclaw chat --model ofoxai/openai/gpt-4o

# 不行,换 Claude
openclaw chat --model ofoxai/anthropic/claude-opus-4.5

# 想省钱,用 DeepSeek
openclaw chat --model ofoxai/deepseek/deepseek-chat

3. 账单清晰

一个 Dashboard 看所有模型的用量,再也不用三个网站来回切换算总账了。

4. 限流?几乎没遇到

OfoxAI 做了请求池和智能路由,峰值时段的限流问题几乎感受不到。

五、适用场景

什么时候用 OfoxAI + OpenClaw?

适合:

  • 需要同时使用多个厂商的模型
  • 在国内,不想折腾代理
  • 想要统一管理 API 调用和费用
  • 跑批量任务,对限流敏感
  • 想快速对比不同模型的效果

不太适合:

  • 只用单一厂商的模型(直接用官方 SDK 可能更简单)
  • 有严格的数据合规要求,必须直连官方
  • 已经有成熟的自建网关方案

六、总结

作为一个被 LLM API 折磨过的老兵,我现在的 setup 是:

  1. OfoxAI 作为统一 Gateway,解决网络、限流、多账号问题
  2. OpenClaw 作为 AI Agent 工作流平台,跑日常任务
  3. 两者结合,零代理、零限流、一个账单

如果你也受够了配代理、被限流、管理一堆 API Key 的日子,试试 OfoxAI。

注册地址:https://ofox.ai

本文由作者按照 CC BY 4.0 进行授权