使用Ollama集成OpenClaw的详细步骤
IT冥想者
在 Ollama 中安装并集成 OpenClaw,核心是先装 OpenClaw、再用 Ollama 拉取本地模型并完成对接,实现本地免费运行。
一、安装 OpenClaw(必做)
1. 系统要求
- Windows:需 WSL2(推荐),或原生 Win10+
- macOS:10.15+
- Linux:Ubuntu 等主流发行版
- 依赖:Node.js ≥ 22
2. 一键安装命令
- macOS / Linux
curl -fsSL https://openclaw.ai/install.sh | bash
- Windows(WSL2 / PowerShell)
iwr -useb https://openclaw.ai/install.ps1 | iex
- 或用 npm 全局安装
npm install -g openclaw@latest
3. 验证安装
openclaw --version # 输出版本号即成功
二、安装 Ollama(本地模型引擎)
1. 安装 Ollama
- macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
- Windows:官网下载安装包双击安装
2. 验证 Ollama
ollama --version
3. 拉取适配模型(推荐)
# 轻量通用(7B,适合普通电脑) ollama pull qwen2.5:7b # 或更大模型(显存 ≥ 8G) ollama pull qwen3:14b
三、Ollama 对接 OpenClaw(两种方式)
方式一:Ollama 一键启动(推荐)
ollama launch openclaw
按向导选择 Ollama 作为模型提供商,自动对接本地模型。
方式二:手动修改配置文件
- 找到配置文件
- Windows:
C:\Users\你的用户名\.openclaw\openclaw.json - macOS / Linux:
~/.openclaw/openclaw.json
- Windows:
- 添加 Ollama 配置
{
"models": {
"ollama": {
"baseUrl": "http://localhost:11434",
"models": [
{
"id": "qwen2.5:7b",
"name": "本地通义千问7B",
"contextWindow": 8192,
"maxTokens": 4096
}
]
}
}
}- 重启 OpenClaw
openclaw restart
四、启动与使用
# 启动服务 openclaw start # 访问 Web 面板 # 浏览器打开:http://localhost:3000
登录后在模型选择中切换为 Ollama 本地模型,即可免费、离线使用。
常见问题
- 端口占用:修改
openclaw.json中port为 3001 等未占用端口 - 模型拉取慢:换国内镜像或手动下载模型文件
- 运行卡顿:内存 ≥ 16G,显存 ≥ 4G,优先用 qwen2.5:7b 等轻量模型
到此这篇关于如何使用Ollama集成OpenClaw的文章就介绍到这了,更多相关Ollama集成OpenClaw内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
