OpenClaw如何切换不同AI模型?2026年OpenClaw模型配置与切换指南
安逸 i
支持的模型列表
OpenClaw 目前支持以下国产大模型:
通义千问系列(阿里云百炼)
| 模型别名 | 完整模型 ID | 输入类型 | 上下文长度 | 特点 |
|---|---|---|---|---|
qwen | bailian/qwen3.5-plus | 文本+图像 | 977k tokens | 通用型,支持图像理解 |
qwen-max | bailian/qwen3-max-2026-01-23 | 文本 | 256k tokens | 高性能旗舰版 |
qwen-coder | bailian/qwen3-coder-next | 文本 | 256k tokens | 编程专用 Next 版 |
qwen-coder-plus | bailian/qwen3-coder-plus | 文本 | 977k tokens | 编程专用 Plus 版 |
智谱 GLM 系列
| 模型别名 | 完整模型 ID | 输入类型 | 上下文长度 | 特点 |
|---|---|---|---|---|
glm | bailian/glm-5 | 文本 | 198k tokens | 最新 GLM-5 模型 |
glm-4 | bailian/glm-4.7 | 文本 | 198k tokens | GLM-4.7 版本 |
Kimi 系列(月之暗面)
| 模型别名 | 完整模型 ID | 输入类型 | 上下文长度 | 特点 |
|---|---|---|---|---|
kimi | moonshot/kimi-k2.5 | 文本+图像 | 250k tokens | Kimi K2.5 官方版 |
kimi | bailian/kimi-k2.5 | 文本+图像 | 256k tokens | Kimi K2.5 百炼版 |
kimi-coding | kimi-coding/k2p5 | 文本 | - | Kimi 编程专用版 |
MiniMax 系列
| 模型别名 | 完整模型 ID | 输入类型 | 上下文长度 | 特点 |
|---|---|---|---|---|
minimax | bailian/MiniMax-M2.5 | 文本 | 977k tokens | MiniMax M2.5 |
模型选择建议
| 使用场景 | 推荐模型 | 原因 |
|---|---|---|
| 日常对话 | glm 或 qwen | 平衡性能与成本 |
| 编程开发 | qwen-coder-plus 或 kimi-coding | 专业编程能力 |
| 长文档处理 | qwen 或 minimax | 超大上下文窗口 |
| 图像理解 | qwen 或 kimi | 支持图像输入 |
| 复杂推理 | qwen-max | 最强推理能力 |
API Key 配置
方法一:通过 OpenClaw 配置向导(推荐新手)
运行交互式配置向导:
openclaw configure
按照提示选择模型提供商并输入 API Key。
方法二:通过命令行配置
1. 添加 API Key 认证
# 进入交互式配置 openclaw models auth add # 或者直接粘贴 Token openclaw models auth paste-token
2. OAuth 认证(部分提供商支持)
# 阿里云百炼 OAuth 登录 openclaw models auth login qwen-portal # GitHub Copilot 认证 openclaw models auth login-github-copilot
方法三:手动编辑配置文件
配置文件位置:~/.openclaw/openclaw.json
{
"models": {
"mode": "merge",
"providers": {
"bailian": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "your-api-key-here",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus",
"input": ["text", "image"],
"contextWindow": 1000000,
"maxTokens": 65536
}
]
}
}
}
}配置参数说明
| 参数 | 说明 | 示例 |
|---|---|---|
baseUrl | API 服务地址 | https://coding.dashscope.aliyuncs.com/v1 |
apiKey | API 密钥 | sk-xxxxxxxxxxxxx |
api | API 协议类型 | openai-completions |
models | 模型列表配置 | 见下方说明 |
input | 支持的输入类型 | ["text"] 或 ["text", "image"] |
contextWindow | 上下文窗口大小 | 1000000 (1M tokens) |
maxTokens | 最大输出 Token 数 | 65536 |
获取 API Key
| 模型提供商 | 获取方式 |
|---|---|
| 阿里云百炼 | https://bailian.console.aliyun.com/ |
| 月之暗面 Kimi | https://platform.moonshot.cn/ |
| 智谱 GLM | https://open.bigmodel.cn/ |
| MiniMax | https://www.minimaxi.com/ |
模型切换方法
OpenClaw 提供多种模型切换方式,选择最适合你的方式即可。
方法一:自然语言切换(最简单)
直接告诉 OpenClaw 你想用什么模型:
切换到 Kimi 使用通义千问 换成 GLM 模型 我想用 kimi-coding 切换模型到 qwen
OpenClaw 会自动识别并执行切换。
方法二:命令行切换
查看当前模型状态
openclaw session_status
输出示例:
Runtime: agent=main | model=bailian/glm-5 | default_model=bailian/glm-5
列出所有可用模型
openclaw models list
输出示例:
Model Input Ctx Local Auth Tags bailian/glm-5 text 198k no yes default,configured bailian/qwen3.5-plus text+image 977k no yes configured bailian/qwen3-max-2026-01-23 text 256k no yes configured ...
设置默认模型
# 使用完整模型 ID openclaw models set bailian/qwen3.5-plus # 或使用别名 openclaw models set qwen
设置图像模型
openclaw models set-image bailian/qwen3.5-plus
方法三:使用切换脚本
Model Switcher 技能提供了便捷的切换脚本:
# 查看当前模型和可用列表 python3 ~/.openclaw/workspace/skills/model-switcher/scripts/switch_model.py # 切换到指定模型 python3 ~/.openclaw/workspace/skills/model-switcher/scripts/switch_model.py kimi python3 ~/.openclaw/workspace/skills/model-switcher/scripts/switch_model.py qwen python3 ~/.openclaw/workspace/skills/model-switcher/scripts/switch_model.py glm # 列出所有可用模型 python3 ~/.openclaw/workspace/skills/model-switcher/scripts/switch_model.py --list
方法四:配置文件修改
直接编辑 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "bailian/glm-5" // 修改这里
}
}
}
}模型别名管理
添加自定义别名简化切换:
# 添加别名 openclaw models aliases add my-favorite bailian/qwen3.5-plus # 列出所有别名 openclaw models aliases list # 删除别名 openclaw models aliases remove my-favorite
多模型使用场景
场景一:编程任务切换到编程专用模型
# 开始编程任务前切换 openclaw models set bailian/qwen3-coder-plus # 完成编程任务后切回通用模型 openclaw models set bailian/glm-5
场景二:处理长文档
# 切换到超大上下文模型 openclaw models set bailian/qwen3.5-plus # 977k tokens # 或使用 MiniMax openclaw models set bailian/MiniMax-M2.5
场景三:图像理解任务
# 切换到支持图像的模型 openclaw models set bailian/qwen3.5-plus # 或使用 Kimi openclaw models set moonshot/kimi-k2.5
配置备用模型(Fallback)
当主模型不可用时自动切换到备用模型:
# 查看当前 fallback 配置 openclaw models fallbacks list # 添加 fallback openclaw models fallbacks add bailian/qwen3.5-plus # 图像模型 fallback openclaw models image-fallbacks add moonshot/kimi-k2.5
会话级模型切换
注意:模型切换通常对新会话生效。当前对话会继续使用原模型。
如需在当前会话切换模型,可以:
- 结束当前会话,开始新会话
- 或使用
/reasoning命令临时切换(如支持)
常见问题解答
Q1: 如何查看当前使用的模型?
openclaw session_status
或查看 OpenClaw 启动时的输出,包含 model=xxx 信息。
Q2: 切换模型后需要重启吗?
通常不需要。新的对话会话会自动使用新模型。但某些情况下可能需要重启 Gateway:
openclaw gateway restart
Q3: API Key 配置错误怎么办?
运行诊断命令:
openclaw doctor
检查配置并修复问题。
Q4: 如何知道哪些模型已配置?
openclaw models list
输出中的 Tags 列会显示 configured 表示已配置。
Q5: 模型切换失败怎么办?
检查模型 ID 是否正确
openclaw models list
检查 API Key 是否配置
openclaw models auth order get
查看详细错误信息
openclaw models set <model-id> --verbose
Q6: 如何同时使用多个模型?
OpenClaw 支持多模型配置:
{
"agents": {
"defaults": {
"models": {
"bailian/qwen3.5-plus": {},
"bailian/glm-5": {},
"bailian/qwen3-coder-plus": {}
}
}
}
}
切换时指定模型即可,无需每次重新配置。
Q7: 模型响应速度慢怎么办?
不同模型响应速度不同:
- 快速响应:
qwen3.5-plus、glm-5 - 中等速度:
qwen3-max、kimi-k2.5 - 较慢但更智能:大型模型推理时间更长
根据任务紧急程度选择合适的模型。
快速参考卡片
常用命令速查
# 查看状态 openclaw session_status # 列出模型 openclaw models list # 切换模型 openclaw models set <model-id> # 配置认证 openclaw models auth add # 运行诊断 openclaw doctor # 配置向导 openclaw configure
模型快速切换别名
| 别名 | 完整 ID | 说明 |
|---|---|---|
qwen | bailian/qwen3.5-plus | 通义千问通用版 |
qwen-max | bailian/qwen3-max-2026-01-23 | 通义千问旗舰版 |
qwen-coder | bailian/qwen3-coder-next | 通义千问编程版 |
glm | bailian/glm-5 | 智谱 GLM-5 |
kimi | moonshot/kimi-k2.5 | Kimi K2.5 |
minimax | bailian/MiniMax-M2.5 | MiniMax M2.5 |
总结
OpenClaw 提供了灵活的模型配置和切换机制:
- 配置简单:支持命令行、配置文件、交互向导多种方式
- 切换便捷:自然语言、命令行、脚本任选
- 多模型支持:涵盖主流国产大模型
- 按需选择:根据任务类型选择最适合的模型
建议根据日常使用场景设置一个默认模型,并在特殊任务时临时切换。这样可以兼顾效率和功能需求。
到此这篇关于OpenClaw如何切换不同AI模型?2026年OpenClaw模型配置与切换指南的文章就介绍到这了,更多相关OpenClaw模型配置和切换内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
