openclaw

关注公众号 jb51net

关闭
AI > openclaw >

OpenClaw+Ollama本地部署终极指南

人工智能我来了

还在为天价API费用发愁?受够了网络波动导致AI服务中断?今天,零度带你解锁真正100%本地运行的AI助手解决方案!只需跟着以下步骤操作,你的电脑将变身全能AI工作站,完全免费、断网可用、多模型自由切换

为什么选择本地部署

三大核心优势让你无法拒绝:

五分钟部署全流程

第一步:环境准备

管理员身份打开PowerShell,依次执行:

winget install git.git

若出现权限错误,追加执行:

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

第二步:安装Ollama

前往官网下载最新版客户端(注:已完全适配OpenClaw)

安装完成后验证版本:

ollama --version

第三步:下载核心模型

根据需求选择最适合的本地引擎:

模型名称特性说明安装命令
qwen3-coder代码任务优化专家ollama run qwen3-coder

专业建议:首次尝试建议选择glm-4.7-flash,在性能和资源消耗间取得最佳平衡

第四步:部署OpenClaw

Windows用户直接执行:

iwr -useb https://openclaw.ai/install.ps1 | iex

其他系统使用通用命令:

curl -fsSL https://openclaw.ai/install.sh | bash

第五步:启动服务

立即运行:

ollama launch openclaw

或先配置后启动:

ollama launch openclaw --config

高级玩法:对接Telegram机器人

  1. 在Telegram中搜索@BotFather创建新机器人
  2. 获取专属Token(形如:8123121125:AAExamegv-0FQCfhfbazmp4405V0XAJCKfk)
  3. 在机器人对话界面获取配对码(例如:DLW7HQ69)
  4. 执行配对命令:
openclaw pairing approve telegram 你的配对码

日常使用技巧

快速启动:每次重启后执行 ollama launch openclaw

多模型切换:直接在OpenClaw配置界面更改模型引用

彻底卸载

openclaw gateway stop
openclaw uninstall
npm uninstall -g openclaw

为什么这是革命性突破?

传统AI服务存在三大痛点:

  1. 持续收费:商业API如同无底洞
  2. 网络依赖:关键时刻掉链子
  3. 功能限制:模型选择不自由

而本次部署方案完美解决所有问题:

立即动手部署,从此彻底摆脱网络束缚、费用焦虑和功能限制!你的AI助手,真正由你做主!

到此这篇关于OpenClaw+Ollama本地部署终极指南的文章就介绍到这了,更多相关OpenClaw部署内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!