openclaw

关注公众号 jb51net

关闭
AI > openclaw >

Windows本地部署OpenClaw并连接Ollama模型的完整指南

゛凌乱的记忆づ

本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。

Windows本地部署OpenClaw

一、环境准备

1.1 硬件要求

1.2 软件要求

1.3 检查工具版本

node --version   # 应显示 v18 以上
npm --version    # 应显示 8 以上

若无 Node.js,请前往 nodejs.org 下载 LTS 版本安装。

二、安装 Ollama 并下载模型

2.1 安装 Ollama

访问 ollama.com 下载 Windows 版本并安装。安装后 Ollama 会自动注册为系统服务,开机自启。

验证安装:

ollama --version

2.2 拉取基础模型(以 Qwen2.5 7B 为例)

ollama pull qwen2.5:7b

等待下载完成(约 4.7 GB)。

提示:若需更强的推理能力,可考虑 Qwen3 8B:ollama pull qwen3:8b

2.3 创建支持更大上下文窗口的模型(OpenClaw 要求 ≥16K)

OpenClaw 默认要求模型上下文窗口至少 16000 tokens,而基础模型可能只有 4096,因此需要创建自定义模型。

切换到用户目录(避免权限问题):

cd C:\Users\<你的用户名>

创建 Modelfile

@"
FROM qwen2.5:7b
PARAMETER num_ctx 32768
"@ | Out-File -Encoding ascii Modelfile

查看文件内容确认

Get-Content Modelfile

应显示:

FROM qwen2.5:7b
PARAMETER num_ctx 32768

创建新模型(例如 qwen2.5:7b-32k):

ollama create qwen2.5:7b-32k -f Modelfile

验证模型已创建并查看上下文参数

ollama list                     # 应看到 qwen2.5:7b-32k
ollama show qwen2.5:7b-32k --modelfile   # 确认包含 num_ctx 32768

注意:若创建时出现 unknown type 错误,请检查 Modelfile 是否包含不可见字符,或改用 -Encoding ascii 重新生成。

三、安装 OpenClaw

3.1 使用 npm 全局安装

npm install -g openclaw

3.2 验证安装

openclaw --version

应显示类似 2026.2.22-2 的版本号。

四、配置 OpenClaw 连接本地模型

4.1 运行配置向导

openclaw onboard

4.2 按提示选择配置项

步骤操作
Model/auth provider选择 Custom Provider(列表最后一项)
API Base URL输入 http://127.0.0.1:11434/v1
API Key输入任意字符串(如 ollama),不可留空
Endpoint compatibility选择 OpenAI-compatible
Model ID输入你创建的模型名(如 qwen2.5:7b-32k)
后续问题全部选择 Skip for now 或 No,直到完成

重要:若配置时提示 Verification failed,请先确保 Ollama 服务正在运行(可执行 ollama list 测试)。

4.3 验证配置是否成功

配置完成后,会显示 Web UI 地址(如 http://127.0.0.1:18789)和 token。你可以先不打开,直接进入 TUI 测试。

五、解决上下文窗口错误

首次启动 TUI 时可能会遇到:

Model context window too small (4096 tokens). Minimum is 16000.

这是因为 OpenClaw 从模型元数据中读取的上下文仍是 4096,虽然你已在 Ollama 中设置了 32768,但 OpenClaw 缓存了旧值。

手动修改配置文件

找到 OpenClaw 的两个 JSON 配置文件:

用记事本打开,找到 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindowmaxTokens 的值从 4096 改为 32768

示例修改后:

{
  "id": "qwen2.5:7b-32k",
  "contextWindow": 32768,
  "maxTokens": 32768,
  ...
}

保存文件后完全退出 OpenClaw TUI(按 Ctrl+C),然后重新启动:

openclaw tui

此时错误应消失,AI 可以正常对话。

六 启动 TUI 并测试对话

openclaw tui

看到类似以下界面即成功:

session agent:main:main
Wake up, my friend!

输入任意消息,AI 应能正常回复。

七、安装常用技能(扩展功能)

OpenClaw 通过技能(Skills)实现各种外部操作。目前你已就绪的技能可通过 openclaw skills list 查看。下面推荐安装一些基础且 Windows 兼容的技能。

7.1 使用 clawhub 管理技能

首先安装技能管理工具本身(只需一次):

npx clawhub install clawhub

之后你就可以在 TUI 中让 AI 帮你安装技能(例如说“安装 github 技能”),不过我们仍用命令行操作。

7.2 安装推荐技能

# 文件操作(让 AI 能保存文件到工作区)
npx clawhub install filesystem-mcp   # 或 clawdbot-filesystem
​
# GitHub 集成(需安装 gh CLI)
npx clawhub install github
​
# PDF 编辑
npx clawhub install nano-pdf
​
# 笔记同步
npx clawhub install notion
npx clawhub install obsidian
​
# 任务管理
npx clawhub install trello
​
# 摘要生成(支持 URL、本地文件)
npx clawhub install summarize
​
# 天气查询(无需 API)
npx clawhub install weather
​
# 本地语音识别
npx clawhub install openai-whisper
​
# 本地语音合成
npx clawhub install sherpa-onnx-tts

7.3 处理速率限制

若出现 Rate limit exceeded,说明未登录的匿名用户请求过多。解决方法:

7.4 技能安装后的必要操作

重启 OpenClaw 网关:退出 TUI(Ctrl+C)再重新运行 openclaw tui

检查技能状态openclaw skills list,确保新技能显示 ✓ ready。若仍为 ✗ missing,说明缺少外部依赖(如 CLI 工具),请根据提示安装。

八、常见问题及解决方法

Q1: 执行ollama serve提示端口 11434 被占用

Q2: OpenClaw 配置时提示Verification failed: This operation was aborted

可能原因

Q3: 启动 TUI 后仍报上下文窗口过小,但已修改配置文件

解决:确保你修改的是正确的模型条目(即你实际使用的模型 ID)。修改后务必完全退出 TUI(按 Ctrl+C),并重启 OpenClaw 网关(重新运行 openclaw tui)。若仍无效,可尝试删除 ~/.openclaw/agents/main/agent/models.json 让系统重新生成(先备份)。

Q4: 技能安装后状态仍为✗ missing

原因:技能依赖的外部工具未安装或未加入 PATH。

解决:查看技能描述,安装所需 CLI 工具。例如:

Q5: 技能安装时遇到Rate limit exceeded

解决:等待 10-15 分钟后再试,或使用 npx clawhub login 登录以提高限额。

Q6: AI 无法将文件保存到桌面(权限问题)

Q7: Windows 上哪些技能不可用?

依赖 macOS 专有框架的技能无法使用,例如:

apple-notes, bear-notes, apple-reminders, things-mac, bluebubbles, imsg

九、下一步

现在你的 OpenClaw 已经具备了基础的对话能力,并安装了实用的技能。你可以:

如果遇到任何问题,欢迎查阅 OpenClaw 官方文档 docs.openclaw.ai 寻求帮助。祝你使用愉快!

到此这篇关于Windows本地部署OpenClaw并连接Ollama模型的完整指南的文章就介绍到这了,更多相关Windows本地部署OpenClaw内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!