OC
OpenClaw 中文解释版

给五岁小朋友也能看懂的说明书

简要总结

Model Providers

这页说明书就像一本“魔法书供应商”目录。它告诉你,OpenClaw 这个工具可以和很多很多不同的“大脑”(我们叫它模型)一起工作,这些大脑来自不同的公司,比如 OpenAI、Anthropic、Google 等等。这页会教你两件最重要的事:第一,怎么告诉 OpenClaw 你想用哪个供应商的哪个大脑;第二,怎么设置“钥匙”(API Key)来打开这些大脑的门。如果你想让 OpenClaw 开始工作,或者想换一个更聪明的大脑,就可以来看看这页。

五岁小孩版解释

OpenClaw 可以和很多不同地方提供的“聪明大脑”(模型)聊天。这就像你有好多本来自不同书店的魔法书一样。这页会告诉你这些“书店”(供应商)都是谁,以及怎么拿到打开这些书的“钥匙”。

怎么告诉 OpenClaw 用哪个大脑? 大脑的名字是这样写的:供应商/大脑型号。比如 openai/gpt-5.1-codex 就是来自 OpenAI 书店的,名叫 gpt-5.1-codex 的大脑。你可以用 openclaw models set <供应商/大脑型号> 这个命令来选一个。

关于“钥匙”的小秘密(API Key Rotation) 有时候,一把钥匙用太多次,门会暂时锁上一小会儿(这叫“限流”)。OpenClaw 有个聪明的办法:你可以给它好几把备用钥匙。它会按顺序尝试,如果一把钥匙因为“用太多次”被拒绝了,它会自动换下一把试试。但要注意,如果钥匙是因为其他原因(比如错了)打不开门,它就不会再试其他钥匙了。 你可以通过设置名字像 OPENAI_API_KEYSOPENAI_API_KEY_1 这样的环境变量来放多把钥匙。名字里有 OPENCLAW_LIVE_ 的钥匙优先级最高。

自带的好用“书店”(内置供应商) OpenClaw 自己就认识很多有名的“书店”,你不需要做复杂的设置,只要给对钥匙就行。比如:

  1. OpenAI:钥匙叫 OPENAI_API_KEY。你可以用 openclaw onboard --auth-choice openai-api-key 来轻松设置。
  2. Anthropic (Claude):钥匙叫 ANTHROPIC_API_KEY。更推荐用这个,而不是用 claude setup-token 那种方式。
  3. Google Gemini:钥匙叫 GEMINI_API_KEY。也可以用 openclaw onboard --auth-choice gemini-api-key 设置。
  4. 还有很多很多:比如 OpenCode Zen、OpenRouter、Mistral、Groq 等等,它们都有自己的钥匙名字,比如 OPENCODE_API_KEYOPENROUTER_API_KEY

需要小心注意的事情

  • 对于 Google 的 Antigravity 和 Gemini CLI 这两种方式,要小心使用。因为这不是 Google 官方支持的,有些人的账号因此被限制过。如果你一定要用,最好用一个不重要的账号。
  • 对于 Anthropic,也最好用官方的 ANTHROPIC_API_KEY 钥匙,而不是从 Claude 软件里拿到的 setup-token

自己添加新的“书店”(自定义供应商) 如果 OpenClaw 不认识你喜欢的“书店”,你可以自己告诉它。这需要在 openclaw.json 配置文件里的 models.providers 部分添加。你需要告诉 OpenClaw 这个书店的地址(baseUrl)和钥匙(apiKey)是什么。 比如,想添加 Moonshot AI (Kimi) 这个书店,你可以这样写(记得把 ${MOONSHOT_API_KEY} 换成你真正的钥匙):

{
  models: {
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

在自己电脑上运行的大脑(本地模型) 你也可以用只在你电脑上运行的“大脑”,比如 Ollama 或 vLLM。

  1. Ollama:先要去 ollama.ai 下载安装,然后用 ollama pull llama3.3 这样的命令把大脑模型下载到电脑上。之后 OpenClaw 就能自动发现并使用它了。
  2. vLLM 或其他本地服务(如 LM Studio):你需要告诉 OpenClaw 它们的地址,通常像 http://localhost:1234/v1 这样。同样,在 models.providers 里设置就行。

几个有用的魔法命令(CLI 示例)

  • openclaw onboard:这是一个引导设置,帮你一步步配好钥匙。
  • openclaw models list:列出所有你现在能使用的大脑。
  • openclaw models set opencode/claude-opus-4-6:把默认使用的大脑换成 OpenCode 的 Claude Opus。