前期准备:node.js,版本号不得低于22.0
1、安装ollama,安装完成后,通过命令行“ollama run qwen3.5:9b”,安装本地qwen3.5:9b模型
2、通过powershell(管理员),命令行执行“npm install -g openclaw”
3、在openclaw onboard向导中选择Custom Provider,填写“http://127.0.0.1:11434/v1”,API Key可任意填写(如ollama),不可留空
4、修改修改“C:\Users\<用户名>\.openclaw\openclaw.json”,确保contextWindow ≥ 16000 tokens,否则会报错
💻 详细部署步骤
🛠️ 第一步:环境准备与Ollama部署
- 准备工作:建议以管理员身份打开PowerShell,检查Node.js版本(需≥18.0.0)。如果未安装或版本过低,请先安装Node.js LTS版。
- 安装Ollama:访问Ollama官网下载Windows版本并安装。安装后,在PowerShell中运行
ollama --version验证。 - 拉取Qwen3模型:在PowerShell中执行以下命令下载模型(根据你的硬件选择其一):
🔌 第二步:安装OpenClaw并完成对接
- 安装OpenClaw:在管理员PowerShell中运行:
npm install -g openclaw - 启动配置向导:运行
openclaw onboard命令。 - 关键配置项(这是对接Ollama的核心):
- 当提示选择 Model/auth provider 时,滚动到最后,选择
Custom Provider。 API Base URL填写:http://127.0.0.1:11434/v1。这是Ollama服务的标准地址,末尾的/v1非常重要。API Key可以任意填写,比如ollama或123,但不能留空,因为OpenClaw需要这个字段。Endpoint compatibility选择OpenAI-compatible。Model ID填写你刚才在Ollama中下载的模型名称,例如qwen3:8b或qwen2.5:4b。- 后面的关于渠道(如Telegram)和技能的配置,可以全部选择
Skip for now跳过,等以后再慢慢探索。
- 当提示选择 Model/auth provider 时,滚动到最后,选择
- 验证连接:配置完成后,向导会自动尝试连接并验证。如果显示“Verification successful”,就说明OpenClaw已经成功连上本地的Qwen3了。
- 访问Web界面:一切顺利的话,浏览器会自动打开
http://127.0.0.1:18789/,这就是OpenClaw的操作后台了。
⚠️ 关键问题与解决方案
- 如果OpenClaw提示模型上下文窗口太小
报错信息:“Model context window too small (4096 tokens). Minimum is 16000”。
原因:OpenClaw的任务通常比较复杂,需要模型有较大的“记忆”能力(即上下文窗口)。Ollama下载的基础模型默认窗口可能只有4096,不满足OpenClaw最低16000的要求。
解决办法:
🚀 进阶探索与实用命令
- 定制模型上下文:如果你想一劳永逸,也可以通过创建Ollama的Modelfile,为你的Qwen3模型设置默认的上下文窗口。例如,创建一个包含
PARAMETER num_ctx 32768的Modelfile,然后用ollama create命令创建一个新模型(如qwen3:8b-32k)。 - 常用排错命令:
openclaw doctor:对OpenClaw进行一次全面体检。openclaw logs follow:实时查看OpenClaw的运行日志,出错时先看这里。openclaw gateway restart:修改配置后,记得用它重启网关。
按照这个流程操作,你应该能成功在Windows上运行起属于你自己的、数据完全私有的AI助手了。
如果在配置OpenClaw连接Ollama时,遇到了具体的报错信息,可以随时发给我,我们一起看看怎么解决。