OpenClaw+Ollama本地部署终极指南
人工智能我来了
还在为天价API费用发愁?受够了网络波动导致AI服务中断?今天,零度带你解锁真正100%本地运行的AI助手解决方案!只需跟着以下步骤操作,你的电脑将变身全能AI工作站,完全免费、断网可用、多模型自由切换!
为什么选择本地部署
三大核心优势让你无法拒绝:
- 零费用:无需任何API Key,彻底告别按token计费
- 断网可用:飞机上、地下室、偏远山区照样畅快使用
- 模型自由:一键切换GPT-OSS、Qwen 3、GLM 4.7等顶尖模型
五分钟部署全流程
第一步:环境准备
以管理员身份打开PowerShell,依次执行:
winget install git.git
若出现权限错误,追加执行:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
第二步:安装Ollama
前往官网下载最新版客户端(注:已完全适配OpenClaw)
安装完成后验证版本:
ollama --version
第三步:下载核心模型
根据需求选择最适合的本地引擎:
| 模型名称 | 特性说明 | 安装命令 |
|---|---|---|
| qwen3-coder | 代码任务优化专家 | ollama run qwen3-coder |
- | glm-4.7 | 全能型选手 | ollama run glm-4.7 |
- | glm-4.7-flash | 速度与性能的完美平衡 | ollama run glm-4.7-flash |
- | gpt-oss:20b | 轻量级开源GPT | ollama run gpt-oss:20b |
- | gpt-oss:120b | 性能怪兽(需高配置) | ollama run gpt-oss:120b |
专业建议:首次尝试建议选择glm-4.7-flash,在性能和资源消耗间取得最佳平衡
第四步:部署OpenClaw
Windows用户直接执行:
iwr -useb https://openclaw.ai/install.ps1 | iex
其他系统使用通用命令:
curl -fsSL https://openclaw.ai/install.sh | bash
第五步:启动服务
立即运行:
ollama launch openclaw
或先配置后启动:
ollama launch openclaw --config
高级玩法:对接Telegram机器人
- 在Telegram中搜索@BotFather创建新机器人
- 获取专属Token(形如:8123121125:AAExamegv-0FQCfhfbazmp4405V0XAJCKfk)
- 在机器人对话界面获取配对码(例如:DLW7HQ69)
- 执行配对命令:
openclaw pairing approve telegram 你的配对码
日常使用技巧
快速启动:每次重启后执行 ollama launch openclaw
多模型切换:直接在OpenClaw配置界面更改模型引用
彻底卸载:
openclaw gateway stop openclaw uninstall npm uninstall -g openclaw
为什么这是革命性突破?
传统AI服务存在三大痛点:
- 持续收费:商业API如同无底洞
- 网络依赖:关键时刻掉链子
- 功能限制:模型选择不自由
而本次部署方案完美解决所有问题:
- 本地运行零成本
- 断网环境照常工作
- 自由切换顶尖模型
- 数据隐私绝对保障
立即动手部署,从此彻底摆脱网络束缚、费用焦虑和功能限制!你的AI助手,真正由你做主!
到此这篇关于OpenClaw+Ollama本地部署终极指南的文章就介绍到这了,更多相关OpenClaw部署内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
