-
-
[原创] Linux 本地化部署 OpenClaw 指南
-
发表于: 2026-2-3 11:20 3588
-
本文介绍在 Arch Linux 系统中本地化部署 AI 助手 OpenClaw 的完整流程,并针对一个关键配置问题提供解决方案。整个方案基于 Ollama 提供模型后端,由 OpenClaw 实现交互界面,形成一套完全在本地运行、保护隐私的智能助手系统。
1. 安装 Ollama:部署本地模型服务
Ollama 是一个轻量化的本地大模型运行框架。我们首先将其安装为模型服务的基础。
1 2 3 4 5 6 7 8 9 | # 一键安装/更新curl -fsSL https://ollama.com/install.sh | sh# 拉取推荐模型(可根据需求选择)ollama pull gpt-oss:20b# 运行测试,验证安装与模型运行ollama run gpt-oss:20b "Hello"# 服务启动后,也可通过浏览器访问 http://localhost:11434/ 查看状态 |
模型选择建议:
gpt-oss:20b:适用于多数场景,20B 参数在性能与资源占用之间取得较好平衡,是推荐的起点。qwen3-coder:针对编程任务优化,适合开发者。glm-4.7:中文处理能力突出,如果主要使用中文,可优先考虑。gpt-oss:120b:能力最强,但需要较大内存(建议 64GB 以上),适合有高性能硬件且追求极致效果的用户。
2. 安装 OpenClaw
OpenClaw 是一个功能丰富的 AI 助手客户端,负责提供对话界面、工具调度等功能,并支持连接到包括 Ollama 在内的多种后端。
1 2 3 4 5 6 7 8 9 | # OpenClaw 基于 Node.js 开发,需先安装运行环境sudo pacman -S node npm# 验证 Node.js 版本node --version # 需 ≥ 22.0.0npm --version# 全局安装 OpenClawnpm install -g openclaw@latest |
安装完成后,需要进行初步设置并熟悉基本操作。
1 2 3 4 5 6 7 8 | # 运行初始化向导,此步骤会引导完成基本设置,并可选择安装为系统服务openclaw onboard --install-daemonopenclaw tui # 启动终端用户界面 (TUI),适合喜欢命令行操作的用户openclaw dashboard # 启动图形化 Web 管理界面,在浏览器中提供更直观的操作体验openclaw update # 更新 OpenClaw 到最新版本openclaw status # 查看 OpenClaw 服务状态 |
3. 配置本地模型连接
为了让 OpenClaw 正确调用本地的 Ollama 服务,需要修改其配置文件。默认位置是 ~/.openclaw/openclaw.json。配置的核心在于两点:在 providers 中声明 Ollama 服务,在 agents 中设定默认使用的模型。也可使用 ollama launch openclaw 或 ollama launch openclaw --config 进行配置。
以下为关键配置示例,请特别注意 baseUrl 需根据你实际的网络地址(如本地 localhost 或局域网 IP)进行修改:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "72bK9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8U0p5&6x3W2)9J5k6e0p5$3z5q4)9J5k6e0m8Q4x3X3f1%4x3q4)9K6b7e0p5I4y4o6x3@1i4K6u0r3N6U0p5`.", // 请修改为你的Ollama服务地址
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "gpt-oss:20b",
"name": "GPT-OSS 20B",
"reasoning": false,
"input": ["text"],
"contextWindow": 32768,
"maxTokens": 8192
}
// 可在此处添加从Ollama拉取的其他模型
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/gpt-oss:20b" // 设置默认主模型,格式为“提供商/模型ID”
},
"models": {
"ollama/gpt-oss:20b": {
"alias": "gpt-oss" // 定义一个简短的别名,便于在会话中快速切换模型
}
}
}
}
}
4. 常见问题排查与解决
完成上述配置后,在 TUI 或 Web 界面中提问时,有时可能会遇到持续返回 NO OUTPUT 的问题。具体表现为:首次提问无输出,重启界面后能看到上次的回复,但再次提问时问题复现。
此问题源于 OpenClaw 代码中的一个逻辑判断错误,将 Ollama 误归类为特殊类型的服务提供商,导致响应处理异常。官方 Issue 跟踪编号为 #2279。
解决方案:
通过修改 OpenClaw 的一个源文件来纠正此判断逻辑。
- 定位文件:找到
/usr/lib/node_modules/openclaw/dist/utils/provider-utils.js。 - 修改函数:编辑该文件,找到名为
isReasoningTagProvider的函数,将其中的判断条件移除"ollama"。 - 重启服务:保存修改后,重启 OpenClaw 服务(例如通过
systemctl --user restart openclaw或相关命令)。
1 2 3 4 5 6 7 8 9 10 11 12 | // 修改前if (normalized === "ollama" || normalized === "google-gemini-cli" || normalized === "google-generative-ai") { return true;}// 修改后if (normalized === "google-gemini-cli" || normalized === "google-generative-ai") { return true;} |
5. 总结
通过以上步骤,我们成功在 Arch Linux 上搭建了一个完全本地运行的 AI 助手环境。这套方案的核心优势在于:
- 隐私安全:所有对话与数据处理均在本地完成,无需担心数据上传至云端。
- 成本可控:消除了持续调用云端 API 的费用。
- 高度集成:OpenClaw 提供了优秀的交互界面和扩展能力,Ollama 则稳定高效地负责模型推理。
- 开源优势:遇到问题时,能够通过社区和源码快速定位并解决,如本文所述的配置修复,体现了开源软件的灵活性与可控性。
这种组合方式为追求数据隐私和希望深度定制 AI 工作流的用户提供了一个强大而可靠的解决方案。
6. 更新
随着 Arch Linux 软件仓库的更新,现在可以通过 pacman 直接安装 Ollama,进一步简化了部署流程。同时,Ollama 命令行工具自 0.17.0 版本起集成了交互式配置向导,能够自动完成 OpenClaw 的连接设置,大幅降低手动配置的复杂度。
6.1 使用 pacman 安装 Ollama
在 Arch Linux 上,只需执行以下命令即可安装 Ollama:
1 | sudo pacman -S ollama |
安装完成后,运行 ollama 命令(不带参数)将进入一个交互式菜单,其中包含 Launch OpenClaw 选项:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 | Ollama 0.17.0 Run a model Start an interactive chat with a model Launch Claude Code (not installed) Agentic coding across large codebases Launch Codex (not installed) OpenAI's open-source coding agent▸ Launch OpenClaw Personal AI with 100+ skills More... Show additional integrations↑/↓ navigate • enter launch • → change model • esc quit |
整个过程无需手动编辑配置文件,极大降低了出错概率。如果您偏好命令行直接启动,也可使用 ollama launch openclaw 或 ollama launch openclaw --config 进入相同向导。
6.3 注意事项
- 使用向导配置后,OpenClaw 的配置文件 (
~/.openclaw/openclaw.json) 将被自动更新,原有手动修改的内容可能被覆盖,建议提前备份。 - 若您已按照本文第 3 节手动配置并遇到了 “NO OUTPUT” 问题,向导配置通常会绕过该 Bug,因为新版本的集成逻辑已优化。但若问题依然存在,仍可参考第 4 节的修复方法手动修改
provider-utils.js文件。 - 向导配置完毕后,您仍可以通过
openclaw tui或openclaw dashboard正常启动 OpenClaw 界面。
通过这一更新,Arch Linux 用户现在可以更快捷地搭建本地 AI 助手环境,享受 Ollama 与 OpenClaw 无缝集成的便利。