openclaw

关注公众号 jb51net

关闭
AI > openclaw >

使用Ollama集成OpenClaw的详细步骤

IT冥想者

在 Ollama 中安装并集成 OpenClaw,核心是先装 OpenClaw、再用 Ollama 拉取本地模型并完成对接,实现本地免费运行。

一、安装 OpenClaw(必做)

1. 系统要求

2. 一键安装命令

curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
npm install -g openclaw@latest

3. 验证安装

openclaw --version
# 输出版本号即成功

二、安装 Ollama(本地模型引擎)

1. 安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

2. 验证 Ollama

ollama --version

3. 拉取适配模型(推荐)

# 轻量通用(7B,适合普通电脑)
ollama pull qwen2.5:7b
# 或更大模型(显存 ≥ 8G)
ollama pull qwen3:14b

三、Ollama 对接 OpenClaw(两种方式)

方式一:Ollama 一键启动(推荐)

ollama launch openclaw

按向导选择 Ollama 作为模型提供商,自动对接本地模型。

方式二:手动修改配置文件

{
  "models": {
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "models": [
        {
          "id": "qwen2.5:7b",
          "name": "本地通义千问7B",
          "contextWindow": 8192,
          "maxTokens": 4096
        }
      ]
    }
  }
}
  1. 重启 OpenClaw
openclaw restart

四、启动与使用

# 启动服务
openclaw start
# 访问 Web 面板
# 浏览器打开:http://localhost:3000

登录后在模型选择中切换为 Ollama 本地模型,即可免费、离线使用。

常见问题

到此这篇关于如何使用Ollama集成OpenClaw的文章就介绍到这了,更多相关Ollama集成OpenClaw内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!