🟡 难度:进阶 | ⏱️ 阅读时间:25 分钟 | 📋 前置知识:已完成快速开始(03-快速开始指南)
本篇你将学会: 切换 AI 模型、配置多个提供商、管理 API Key、优化模型参数
小白速通: 如果你在引导向导中已经配好了模型,这篇可以先跳过。等你想换模型或者觉得 AI 回答质量不好时再来看
OpenClaw 支持 29 个 AI 模型提供商(provider,即 AI 模型提供商,比如 OpenAI、Anthropic),从云端大模型到本地开源模型,总有一款适合你。
配置模型最简单的方式:
openclaw onboard引导向导会帮你配置。但如果你想手动配置、切换模型、或者做更精细的调优,这篇指南就是为你准备的。
本章内容比较多,先给你一个目录:
- 云端模型提供商完整配置(OpenAI、Anthropic、Google、国产模型等)
- 企业级云平台(Azure OpenAI、AWS Bedrock、Google Vertex AI)
- 本地模型部署(Ollama、vLLM、LM Studio)
- 模型路由与聚合(OpenRouter)
- API Key 安全管理
- 模型选择策略(不同场景用什么模型)
- 模型参数调优(temperature、top_p 等)
- 多模型切换与 Fallback 策略
- Token 限制与成本控制
- 自定义模型接入(兼容 OpenAI API 的任意服务)
- 常见配置问题排查
在开始之前,先了解配置文件在哪里。OpenClaw 的模型配置存放在:
# 查看当前模型状态
openclaw models status
# 配置文件默认路径
~/.openclaw/openclaw.json配置文件是 JSON5 格式(支持注释和尾逗号),你可以直接编辑,也可以用 openclaw models set 命令修改。两种方式效果一样。
{
agent: {
model: "anthropic/claude-sonnet-4-6",
},
}| 命令 | 说明 |
|---|---|
openclaw models list |
列出所有可用模型 |
openclaw models status |
查看当前模型状态 |
openclaw models set |
设置默认模型 |
openclaw models set-image |
设置图像模型 |
openclaw models aliases list |
列出模型别名 |
openclaw models aliases add <alias> <model> |
添加模型别名 |
openclaw models aliases remove <alias> |
删除模型别名 |
openclaw models fallbacks list |
查看故障转移列表 |
OpenAI 是目前最主流的模型提供商之一,GPT 系列模型在各种任务上表现优秀。
获取 API Key(访问 AI 服务的密钥,类似于密码):
- 访问 platform.openai.com
- 注册或登录账号
- 进入 API Keys 页面:Settings > API Keys
- 点击 "Create new secret key"
- 给 Key 起个名字(比如 "openclaw"),复制保存
注意:API Key 只在创建时显示一次,务必立刻复制保存。丢了只能重新创建。
配置方法:
# 方法一:用环境变量(推荐)
export OPENAI_API_KEY="sk-proj-xxxxx"
# 方法二:直接编辑配置文件
# 编辑 ~/.openclaw/openclaw.json支持的模型:
| 模型名称 | 模型 ID | 特点 | 适用场景 |
|---|---|---|---|
| GPT-5.3 | gpt-5.3 |
最新旗舰,能力最强 | 复杂推理、创作 |
| GPT-5.3 Codex | gpt-5.3-codex |
编程专用优化 | 代码生成、调试 |
| GPT-5.2 | gpt-5.2 |
多模态,速度快 | 日常对话、图片理解 |
| GPT-5.2-mini | gpt-5.2-mini |
便宜快速 | 简单任务、高频调用 |
| o3 | o3 |
深度推理 | 数学、逻辑、科学 |
| o3-mini | o3-mini |
轻量推理 | 中等复杂度推理 |
指定使用 OpenAI 模型:
openclaw models set "openai/gpt-5.2"OpenAI 特有配置项:
{
// 在 openclaw.json 中可以配置 OpenAI 相关选项
providers: {
openai: {
baseUrl: "https://api.openai.com/v1",
organization: "org-xxxxx",
project: "proj-xxxxx",
timeout: 60000,
maxRetries: 3,
},
},
}organization/project:组织 ID 和项目 ID,用于费用归属baseUrl:默认不用改,用代理或兼容服务时改成对应地址
Anthropic 的 Claude 系列模型以强大的推理能力和编程能力著称,是很多开发者的首选。
获取 API Key:
- 访问 console.anthropic.com
- 注册账号(需要手机号验证)
- 进入 API Keys 页面
- 点击 "Create Key"
- 复制保存 Key(以
sk-ant-开头)
配置方法:
# 环境变量
export ANTHROPIC_API_KEY="sk-ant-xxxxx"支持的模型:
| 模型名称 | 模型 ID | 特点 | 适用场景 |
|---|---|---|---|
| Claude Opus 4.6 | claude-opus-4-6 |
最强推理,深度思考 | 复杂分析、架构设计 |
| Claude Sonnet 4.6 | claude-sonnet-4-6 |
编程最强,性价比高 | 编程、日常工作 |
| Claude Haiku 4.5 | claude-haiku-4-5 |
极速响应,成本低 | 简单任务、高频调用 |
订阅认证(Claude Max 用户):
如果你有 Claude Max 订阅,可以不用 API Key,直接通过 OAuth 认证:
# 通过 OAuth 认证(订阅用户)
openclaw auth login anthropicOpenClaw 支持 ANTHROPIC_OAUTH_TOKEN 环境变量来存储 OAuth 令牌。
这样就能用你的订阅额度,不需要额外付 API 费用。
推荐配置(Anthropic Pro/Max 100/200 + Opus 4.6):
OpenClaw 官方推荐使用 Anthropic Pro/Max 订阅搭配 Opus 4.6 模型,获得最佳体验。
{
agent: {
model: "anthropic/claude-opus-4-6",
},
}- 支持 OAuth 认证和 API Key 两种方式
- OAuth 认证通过
ANTHROPIC_OAUTH_TOKEN环境变量或openclaw auth login配置
Google 的 Gemini 系列模型在多模态能力上表现突出,尤其是图片和视频理解。
获取 API Key:
- 访问 aistudio.google.com
- 用 Google 账号登录
- 点击 "Get API Key"
- 创建新 Key 或选择已有项目
- 复制保存 Key(以
AIzaSy开头)
配置方法:
# 环境变量
export GEMINI_API_KEY="AIzaSy-xxxxx"支持的模型:
| 模型名称 | 模型 ID | 特点 | 适用场景 |
|---|---|---|---|
| Gemini 3.1 | gemini-3.1 |
最新旗舰,多模态最强 | 图片视频理解、复杂任务 |
| Gemini 2.5 Pro | gemini-2.5-pro |
深度推理 | 复杂分析、长文本 |
| Gemini 2.5 Flash | gemini-2.5-flash |
快速响应 | 日常对话、简单任务 |
Google 配置项:
{
agent: {
model: "google/gemini-2.5-pro",
},
}月之暗面出品,中文理解能力非常强,v2026.2.23 新增了视觉和视频能力。
获取 API Key:platform.moonshot.cn
配置方法:
# 环境变量(注意:Moonshot 不在 OpenClaw 源码验证的环境变量列表中,
# 可通过 OpenAI 兼容接口或 OpenRouter 接入)支持的模型:
| 模型名称 | 模型 ID | 特点 |
|---|---|---|
| Kimi-Max | kimi-max |
旗舰模型,中文最强 |
| Kimi-Standard | kimi-standard |
均衡之选 |
| Kimi-Lite | kimi-lite |
轻量快速 |
阿里巴巴出品,中文能力优秀,性价比极高。开源版本在 Ollama 上也能跑。
获取 API Key:dashscope.console.aliyun.com(需要阿里云账号,开通 DashScope 服务)
配置方法:
# 环境变量(注意:Qwen 不在 OpenClaw 源码验证的环境变量列表中,
# 可通过 OpenAI 兼容接口或 OpenRouter 接入)支持的模型:
| 模型名称 | 模型 ID | 特点 |
|---|---|---|
| Qwen-Max | qwen-max |
旗舰模型 |
| Qwen-Plus | qwen-plus |
均衡之选 |
| Qwen-Turbo | qwen-turbo |
快速便宜 |
| Qwen-Long | qwen-long |
超长上下文 |
法国 AI 公司,模型轻量高效,v2026.2.22 新增集成,支持聊天、记忆和语音功能。
获取 API Key:console.mistral.ai
配置方法:
# 环境变量(注意:Mistral 不在 OpenClaw 源码验证的环境变量列表中,
# 可通过 OpenRouter 接入)支持的模型:
| 模型名称 | 模型 ID | 特点 |
|---|---|---|
| Mistral Large | mistral-large-latest |
旗舰模型 |
| Mistral Medium | mistral-medium-latest |
均衡之选 |
| Mistral Small | mistral-small-latest |
轻量快速 |
| Codestral | codestral-latest |
编程专用 |
国产深度求索,以极低的价格和不错的推理能力出名。
获取 API Key:platform.deepseek.com
配置方法:
# 环境变量(注意:DeepSeek 不在 OpenClaw 源码验证的环境变量列表中,
# 可通过 OpenAI 兼容接口或 OpenRouter 接入)支持的模型:
| 模型名称 | 模型 ID | 特点 |
|---|---|---|
| DeepSeek-V3 | deepseek-chat |
通用对话 |
| DeepSeek-R1 | deepseek-reasoner |
深度推理 |
Elon Musk 的 AI 公司,Grok 模型风格独特。
配置方法:
# 环境变量
export ZAI_API_KEY="xai-xxxxx"专注企业级 AI,RAG(检索增强生成)能力强。
配置方法:
# 环境变量(注意:Cohere 不在 OpenClaw 源码验证的环境变量列表中,
# 可通过 OpenRouter 接入)⏭️ 小白可跳过 — 这部分面向高级用户,新手用默认配置就够了
如果你在企业环境中使用,可能需要通过云平台的托管服务来访问模型,而不是直接用模型提供商的 API。
微软 Azure 托管的 OpenAI 模型,适合已有 Azure 订阅的企业用户。数据不出你的 Azure 区域,合规性更好。
前置条件: 有 Azure 订阅,已创建 Azure OpenAI 资源并部署模型。
配置方法:
{
providers: {
"azure-openai": {
endpoint: "https://your-resource.openai.azure.com",
deploymentName: "gpt-5.2",
apiVersion: "2024-12-01-preview",
},
},
}注意:
deploymentName是你在 Azure 中部署时起的名字,不是 OpenAI 原始的模型名。
亚马逊 AWS 的托管 AI 服务,支持多家模型提供商。适合已有 AWS 基础设施的团队。
前置条件: 有 AWS 账号,已在 Bedrock 控制台开通模型访问权限。
配置方法:
{
providers: {
"aws-bedrock": {
region: "us-east-1",
// 认证通过 AWS 环境变量或 IAM Role
},
},
}也可以用 AWS 环境变量(AWS_ACCESS_KEY_ID、AWS_SECRET_ACCESS_KEY、AWS_DEFAULT_REGION)。在 EC2 实例上直接用 IAM Role 即可。Bedrock 支持 Claude、Llama、Mistral 等系列模型。
Google Cloud 的企业级 AI 平台,适合已有 GCP 基础设施的团队。
前置条件: 有 Google Cloud 项目,已启用 Vertex AI API。
配置方法:
{
providers: {
"vertex-ai": {
projectId: "your-project-id",
location: "us-central1",
credentials: "/path/to/service-account.json",
},
},
}也可以用 gcloud auth application-default login 认证,OpenClaw 会自动使用你的 gcloud 凭证。
本地模型的最大优势:数据完全不出你的电脑。适合处理敏感信息、离线使用、或者单纯不想付 API 费用的场景。
Ollama 是目前最简单的本地模型运行方案,一行命令就能跑起来。
安装 Ollama:
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows:从 https://ollama.com/download 下载安装包下载模型:
# 通用对话模型
ollama pull llama3.1 # Meta Llama 3.1,综合能力强
ollama pull llama3.1:70b # 70B 参数版本,更强但需要更多显存
ollama pull qwen2.5 # 通义千问,中文最强开源模型
# 编程专用模型
ollama pull codellama # Meta 编程模型
ollama pull deepseek-coder-v2 # DeepSeek 编程模型
# 轻量模型(低配电脑也能跑)
ollama pull phi3 # 微软 Phi-3,3.8B 参数
ollama pull gemma2:2b # Google Gemma 2,2B 参数
ollama pull mistral # Mistral 7B配置 OpenClaw 使用 Ollama:
openclaw models set "ollama/llama3.1"完整配置示例:
{
agent: {
model: "ollama/llama3.1",
},
providers: {
ollama: {
baseUrl: "http://127.0.0.1:11434",
timeout: 300000,
keepAlive: "5m",
},
},
}timeout:本地模型推理可能比较慢,建议设长一点(300 秒)keepAlive:模型在内存中保持多久,默认 5 分钟。设"0"表示用完立刻卸载
Ollama 硬件要求参考:
| 模型大小 | 最低内存 | 推荐显存 | 示例模型 |
|---|---|---|---|
| 1-3B | 4GB RAM | 不需要 GPU | phi3, gemma2:2b |
| 7-8B | 8GB RAM | 6GB VRAM | llama3.1, mistral |
| 13-14B | 16GB RAM | 10GB VRAM | llama3.1:13b |
| 32-34B | 32GB RAM | 24GB VRAM | qwen2.5:32b |
| 70B | 64GB RAM | 48GB VRAM | llama3.1:70b |
没有独立显卡也能跑,Ollama 会自动用 CPU 推理,只是速度慢一些。
Ollama 远程访问:
如果 Ollama 跑在另一台机器上(比如 GPU 服务器),在服务器上设置 OLLAMA_HOST="0.0.0.0:11434",然后在 OpenClaw 配置文件 ~/.openclaw/openclaw.json 中设置远程地址:
{
providers: {
ollama: {
baseUrl: "http://192.168.1.100:11434",
},
},
}高性能本地推理引擎,适合有 GPU 的用户,吞吐量比 Ollama 高很多。
安装和启动:
# 安装 vLLM
pip install vllm
# 启动 vLLM 服务(以 Llama 3.1 为例)
python -m vllm.entrypoints.openai.api_server \
--model meta-llama/Llama-3.1-8B-Instruct \
--port 8000配置 OpenClaw:
// ~/.openclaw/openclaw.json
{
providers: {
vllm: {
baseUrl: "http://127.0.0.1:8000",
},
},
}图形界面的本地模型运行工具,适合不喜欢命令行的用户。
- 从 lmstudio.ai 下载安装
- 在 LM Studio 中搜索并下载模型
- 启动本地服务器(Local Server 标签页)
- 配置 OpenClaw(编辑
~/.openclaw/openclaw.json):
{
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
},
},
}LM Studio 的 API 兼容 OpenAI 格式,所以也可以用 OpenAI 提供商配置,只需改 baseUrl。
OpenRouter 是模型路由器,一个 API Key 就能访问 OpenAI、Anthropic、Google、Meta 等所有主流模型。适合想要灵活切换模型、或者不想管理多个 API Key 的用户。
获取 API Key:
- 访问 openrouter.ai
- 注册账号
- 在 Keys 页面创建 API Key
配置方法:
# 环境变量
export OPENROUTER_API_KEY="sk-or-xxxxx"通过 OpenRouter 使用特定模型:
# 使用 OpenRouter 的 Claude Sonnet
openclaw models set "openrouter/anthropic/claude-sonnet-4-6"
# 使用 OpenRouter 的 GPT-5.2
openclaw models set "openrouter/openai/gpt-5.2"
# 使用 OpenRouter 的 Llama
openclaw models set "openrouter/meta-llama/llama-3.1-70b-instruct"OpenRouter 的优势: 一个 Key 访问所有模型、自动选择最便宜的提供商、内置负载均衡和故障转移、统一计费。
API Key 就是钱,泄露了别人就能用你的额度。这里是安全管理的最佳实践。
- 把 Key 硬编码在代码里
- 把含有 Key 的配置文件提交到 Git
- 在公开场合(截图、论坛、聊天记录)分享 Key
方法一:用环境变量(最推荐)
# 在 ~/.bashrc 或 ~/.zshrc 中添加
export OPENAI_API_KEY="sk-proj-xxxxx"
export ANTHROPIC_API_KEY="sk-ant-xxxxx"
# 然后 source 一下
source ~/.bashrcOpenClaw 会自动读取这些环境变量,不需要在配置文件中写 Key。
OpenClaw 源码验证的环境变量列表:
| 环境变量 | 提供商 |
|---|---|
OPENAI_API_KEY |
OpenAI |
ANTHROPIC_API_KEY |
Anthropic |
ANTHROPIC_OAUTH_TOKEN |
Anthropic(OAuth 认证) |
GEMINI_API_KEY |
Google Gemini |
ZAI_API_KEY |
xAI (Grok) |
OPENROUTER_API_KEY |
OpenRouter |
AI_GATEWAY_API_KEY |
AI Gateway |
MINIMAX_API_KEY |
MiniMax |
ELEVENLABS_API_KEY |
ElevenLabs |
方法二:用 .env 文件
# 在项目根目录创建 .env 文件
OPENAI_API_KEY=sk-proj-xxxxx
ANTHROPIC_API_KEY=sk-ant-xxxxx
# 务必把 .env 加入 .gitignore
echo ".env" >> .gitignore方法三:用系统密钥管理器
macOS 用 Keychain,Linux 用 secret-tool,Windows 用凭据管理器。具体命令参考各系统文档。
定期轮换 API Key 是好习惯。流程:在提供商控制台创建新 Key -> 更新环境变量或配置文件 -> 用 openclaw models status 确认新 Key 工作正常 -> 删除旧 Key。
💡 不知道选什么模型? 看这一节就够了,帮你根据预算和需求选最合适的
不同场景用不同模型,既省钱又高效。
下表中的"token"(AI 处理文本的基本单位,大约 1 个汉字 = 2 个 token)是 AI 计费的常用单位。
| 场景 | 推荐模型 | 理由 | 大约成本 |
|---|---|---|---|
| 日常闲聊 | GPT-5.2-mini / Haiku 4.5 | 便宜快速,够用 | ~$0.15/百万 token |
| 复杂推理 | Claude Opus 4.6 / o3 | 最强推理能力 | ~$15/百万 token |
| 编程辅助 | Claude Sonnet 4.6 / Codex | 编程能力最强 | ~$3/百万 token |
| 中文场景 | Qwen-Max / Kimi-Max | 中文理解优化 | 按各家定价 |
| 隐私优先 | Ollama + Llama3.1 | 数据不出本地 | 免费(电费除外) |
| 多模态 | Gemini 3.1 / GPT-5.2 | 图片视频理解 | ~$2.5/百万 token |
| 预算有限 | OpenRouter / DeepSeek | 按需选最便宜的 | ~$0.1-1/百万 token |
| 超长文本 | Gemini 2.5 Pro / Qwen-Long | 百万级上下文 | 按各家定价 |
OpenClaw 支持给不同的 Agent 分配不同的模型:
{
// 默认模型
agent: {
model: "anthropic/claude-sonnet-4-6",
},
// 可通过模型别名为不同场景快速切换
// openclaw models aliases add code-review "anthropic/claude-opus-4-6"
// openclaw models aliases add translator "openai/gpt-5.2"
}简单任务用便宜模型省钱,关键任务用强模型保质量,中文任务用中文优化模型效果更好,内部任务用本地模型保隐私。
⏭️ 小白可跳过 — 这部分面向高级用户,新手用默认配置就够了
模型的输出风格可以通过参数来调整。这些参数在配置文件的 modelSettings 中设置。
{
agent: {
model: "anthropic/claude-sonnet-4-6",
modelSettings: {
temperature: 0.7,
topP: 0.9,
maxTokens: 4096,
frequencyPenalty: 0.0,
presencePenalty: 0.0,
stopSequences: [],
},
},
}temperature(温度,控制 AI 回答随机性的参数,越高越有创意,越低越稳定):
控制输出的随机性,范围 0.0 - 2.0。
| 值 | 效果 | 适用场景 |
|---|---|---|
| 0.0 | 完全确定性,每次输出一样 | 代码生成、数据提取 |
| 0.3 | 低随机性,比较稳定 | 客服回复、翻译 |
| 0.7 | 中等随机性(默认) | 日常对话、写作 |
| 1.0 | 高随机性,更有创意 | 创意写作、头脑风暴 |
| 1.5+ | 非常随机,可能不连贯 | 一般不推荐 |
topP(核采样):
控制候选词的范围,范围 0.0 - 1.0。
1.0:考虑所有候选词(默认)0.9:只考虑概率最高的 90% 候选词0.5:只考虑概率最高的 50% 候选词
一般建议:调 temperature 或 topP 其中一个就行,不要同时调两个。
maxTokens(最大输出长度):
限制模型单次回复的最大 token 数。不同模型的最大输出限制不同:
- GPT-5.2:最大 32,768 tokens
- Claude Sonnet 4.6:最大 64,000 tokens
- Gemini 2.5 Pro:最大 65,536 tokens
frequencyPenalty(频率惩罚):
减少模型重复已经说过的内容,范围 -2.0 到 2.0。
0.0:不惩罚(默认)0.5:轻微减少重复1.0:明显减少重复
presencePenalty(存在惩罚):
鼓励模型谈论新话题,范围 -2.0 到 2.0。
0.0:不惩罚(默认)0.5:轻微鼓励新话题1.0:明显鼓励新话题
| 场景 | temperature | topP | maxTokens | 其他 |
|---|---|---|---|---|
| 客服机器人 | 0.3 | 0.9 | 2048 | - |
| 创意写作 | 0.9 | 0.95 | 4096 | presencePenalty: 0.3 |
| 代码生成 | 0.0 | 1.0 | 8192 | - |
| 数据提取 | 0.0 | 1.0 | 1024 | - |
⏭️ 小白可跳过 — 这部分面向高级用户,新手用默认配置就够了
当主模型不可用时(API 挂了、超时、限流),OpenClaw 内置 model-failover 机制,可以自动切换到备用模型。
查看当前故障转移列表:
openclaw models fallbacks list配置示例:
{
agent: {
model: "anthropic/claude-sonnet-4-6",
modelFallback: [
"openai/gpt-5.2",
"google/gemini-2.5-flash",
"ollama/llama3.1",
],
},
}Fallback 按顺序尝试:先试第一个备用模型,不行再试第二个,以此类推。最后一个建议放本地模型,确保在所有云服务都挂了的情况下还能用。
会触发 Fallback 的情况:API 返回 5xx 错误、请求超时、429 限流、网络连接失败。
不会触发的情况:4xx 客户端错误(比如 Key 无效)、模型正常返回但内容不符合预期。
# 切换默认模型
openclaw models set "openai/gpt-5.2"
# 查看当前模型状态
openclaw models status
# 列出所有可用模型
openclaw models list⏭️ 小白可跳过 — 这部分面向高级用户,新手用默认配置就够了
担心 API 费用失控?设置使用限制:
{
agent: {
usageTracking: {
enabled: true,
dailyLimit: 5.00,
monthlyLimit: 50.00,
currency: "USD",
alertThreshold: 0.8,
},
},
}dailyLimit:每日费用上限monthlyLimit:每月费用上限alertThreshold:达到上限的 80% 时发出警告
查看模型状态:
openclaw models status # 查看当前模型状态
openclaw models list # 列出所有可用模型除了费用限制,还可以限制单次对话的 Token 用量:
{
agent: {
tokenLimits: {
maxInputTokens: 100000,
maxOutputTokens: 4096,
maxTotalTokens: 128000,
},
},
}- 简单任务用便宜模型(GPT-5.2-mini、Haiku)
- 设置合理的 maxTokens,避免模型输出过长
- 用 OpenRouter 自动选择最便宜的提供商
- 高频任务考虑用本地模型(Ollama)
- 开启用量追踪,定期检查费用
⏭️ 小白可跳过 — 这部分面向高级用户,新手用默认配置就够了
如果你有自己部署的模型服务,只要兼容 OpenAI API 格式,就能接入 OpenClaw。
很多本地推理框架都兼容 OpenAI API 格式(比如 vLLM、text-generation-webui、LocalAI 等)。配置方法:
{
providers: {
custom: {
type: "openai-compatible",
baseUrl: "http://your-server:8000/v1",
apiKey: "your-key-if-needed",
models: [
{
id: "my-custom-model",
name: "My Custom Model",
contextWindow: 32768,
maxOutputTokens: 4096,
},
],
},
},
}然后就可以用了:
openclaw models set "custom/my-custom-model"可以配置多个自定义提供商,只需用不同的名字:
{
providers: {
"gpu-server-1": {
type: "openai-compatible",
baseUrl: "http://192.168.1.100:8000/v1",
},
"gpu-server-2": {
type: "openai-compatible",
baseUrl: "http://192.168.1.101:8000/v1",
},
},
}Error: Invalid API key provided
确认 Key 没有多余的空格或换行,没有过期或被撤销,用的是正确提供商的 Key。用 openclaw models status 测试。
Error: Request timed out
检查网络连接。在中国大陆可能需要代理(export HTTPS_PROXY="http://127.0.0.1:7890")。也可以在 ~/.openclaw/openclaw.json 中增加超时时间。
Error: Model not found
确认模型 ID 拼写正确,确认你的账号有权限使用该模型(有些模型需要单独申请)。用 openclaw models list 查看可用模型。
Error: Connection refused to http://127.0.0.1:11434
排查步骤:
# 1. 确认 Ollama 正在运行
ollama list
# 2. 如果没运行,启动它
ollama serve
# 3. 如果是远程 Ollama,确认防火墙允许 11434 端口- 用更小的模型(7B 比 70B 快很多)
- 如果有 NVIDIA GPU,确认 Ollama 在用 GPU(
ollama ps查看) - 减少 maxTokens 限制输出长度
- 考虑用 vLLM 替代 Ollama(吞吐量更高)
- 开启用量追踪(在
~/.openclaw/openclaw.json中配置usageTracking) - 设置每日限额
- 检查是否有 Agent 在用昂贵的模型做简单任务
- 把高频任务切换到便宜模型
模型配好了!去 05. 消息平台集成 连接你的聊天软件!