首页
社区
课程
招聘
[原创] Linux 本地化部署 OpenClaw 指南
发表于: 2026-2-3 11:20 3588

[原创] Linux 本地化部署 OpenClaw 指南

2026-2-3 11:20
3588

本文介绍在 Arch Linux 系统中本地化部署 AI 助手 OpenClaw 的完整流程,并针对一个关键配置问题提供解决方案。整个方案基于 Ollama 提供模型后端,由 OpenClaw 实现交互界面,形成一套完全在本地运行、保护隐私的智能助手系统。

1. 安装 Ollama:部署本地模型服务

Ollama 是一个轻量化的本地大模型运行框架。我们首先将其安装为模型服务的基础。

1
2
3
4
5
6
7
8
9
# 一键安装/更新
curl -fsSL https://ollama.com/install.sh | sh
 
# 拉取推荐模型(可根据需求选择)
ollama pull gpt-oss:20b
 
# 运行测试,验证安装与模型运行
ollama run gpt-oss:20b "Hello"
# 服务启动后,也可通过浏览器访问 http://localhost:11434/ 查看状态

模型选择建议

  • gpt-oss:20b:适用于多数场景,20B 参数在性能与资源占用之间取得较好平衡,是推荐的起点。
  • qwen3-coder:针对编程任务优化,适合开发者。
  • glm-4.7:中文处理能力突出,如果主要使用中文,可优先考虑。
  • gpt-oss:120b:能力最强,但需要较大内存(建议 64GB 以上),适合有高性能硬件且追求极致效果的用户。

2. 安装 OpenClaw

OpenClaw 是一个功能丰富的 AI 助手客户端,负责提供对话界面、工具调度等功能,并支持连接到包括 Ollama 在内的多种后端。

1
2
3
4
5
6
7
8
9
# OpenClaw 基于 Node.js 开发,需先安装运行环境
sudo pacman -S node npm
 
# 验证 Node.js 版本
node --version  # 需 ≥ 22.0.0
npm --version
 
# 全局安装 OpenClaw
npm install -g openclaw@latest

安装完成后,需要进行初步设置并熟悉基本操作。

1
2
3
4
5
6
7
8
# 运行初始化向导,此步骤会引导完成基本设置,并可选择安装为系统服务
openclaw onboard --install-daemon
 
openclaw tui        # 启动终端用户界面 (TUI),适合喜欢命令行操作的用户
openclaw dashboard  # 启动图形化 Web 管理界面,在浏览器中提供更直观的操作体验
 
openclaw update     # 更新 OpenClaw 到最新版本
openclaw status     # 查看 OpenClaw 服务状态

3. 配置本地模型连接

为了让 OpenClaw 正确调用本地的 Ollama 服务,需要修改其配置文件。默认位置是 ~/.openclaw/openclaw.json。配置的核心在于两点:在 providers 中声明 Ollama 服务,在 agents 中设定默认使用的模型。也可使用 ollama launch openclawollama launch openclaw --config 进行配置。

以下为关键配置示例,请特别注意 baseUrl 需根据你实际的网络地址(如本地 localhost 或局域网 IP)进行修改:

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "72bK9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8U0p5&6x3W2)9J5k6e0p5$3z5q4)9J5k6e0m8Q4x3X3f1%4x3q4)9K6b7e0p5I4y4o6x3@1i4K6u0r3N6U0p5`.", // 请修改为你的Ollama服务地址
        "apiKey": "ollama",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:20b",
            "name": "GPT-OSS 20B",
            "reasoning": false,
            "input": ["text"],
            "contextWindow": 32768,
            "maxTokens": 8192
          }
          // 可在此处添加从Ollama拉取的其他模型
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/gpt-oss:20b"  // 设置默认主模型,格式为“提供商/模型ID”
      },
      "models": {
        "ollama/gpt-oss:20b": {
          "alias": "gpt-oss"  // 定义一个简短的别名,便于在会话中快速切换模型
        }
      }
    }
  }
}

4. 常见问题排查与解决

完成上述配置后,在 TUI 或 Web 界面中提问时,有时可能会遇到持续返回 NO OUTPUT 的问题。具体表现为:首次提问无输出,重启界面后能看到上次的回复,但再次提问时问题复现。

此问题源于 OpenClaw 代码中的一个逻辑判断错误,将 Ollama 误归类为特殊类型的服务提供商,导致响应处理异常。官方 Issue 跟踪编号为 #2279

解决方案
通过修改 OpenClaw 的一个源文件来纠正此判断逻辑。

  1. 定位文件:找到 /usr/lib/node_modules/openclaw/dist/utils/provider-utils.js
  2. 修改函数:编辑该文件,找到名为 isReasoningTagProvider 的函数,将其中的判断条件移除 "ollama"
  3. 重启服务:保存修改后,重启 OpenClaw 服务(例如通过 systemctl --user restart openclaw 或相关命令)。
1
2
3
4
5
6
7
8
9
10
11
12
// 修改前
if (normalized === "ollama" ||
    normalized === "google-gemini-cli" ||
    normalized === "google-generative-ai") {
    return true;
}
 
// 修改后
if (normalized === "google-gemini-cli" ||
    normalized === "google-generative-ai") {
    return true;
}

5. 总结

通过以上步骤,我们成功在 Arch Linux 上搭建了一个完全本地运行的 AI 助手环境。这套方案的核心优势在于:

  • 隐私安全:所有对话与数据处理均在本地完成,无需担心数据上传至云端。
  • 成本可控:消除了持续调用云端 API 的费用。
  • 高度集成:OpenClaw 提供了优秀的交互界面和扩展能力,Ollama 则稳定高效地负责模型推理。
  • 开源优势:遇到问题时,能够通过社区和源码快速定位并解决,如本文所述的配置修复,体现了开源软件的灵活性与可控性。

这种组合方式为追求数据隐私和希望深度定制 AI 工作流的用户提供了一个强大而可靠的解决方案。

6. 更新

随着 Arch Linux 软件仓库的更新,现在可以通过 pacman 直接安装 Ollama,进一步简化了部署流程。同时,Ollama 命令行工具自 0.17.0 版本起集成了交互式配置向导,能够自动完成 OpenClaw 的连接设置,大幅降低手动配置的复杂度。

6.1 使用 pacman 安装 Ollama

在 Arch Linux 上,只需执行以下命令即可安装 Ollama:

1
sudo pacman -S ollama

安装完成后,运行 ollama 命令(不带参数)将进入一个交互式菜单,其中包含 Launch OpenClaw 选项:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Ollama 0.17.0
 
  Run a model
    Start an interactive chat with a model
 
  Launch Claude Code (not installed)
    Agentic coding across large codebases
 
  Launch Codex (not installed)
    OpenAI's open-source coding agent
 
▸ Launch OpenClaw
    Personal AI with 100+ skills
 
  More...
    Show additional integrations
 
/↓ navigate • enter launch • → change model • esc quit

整个过程无需手动编辑配置文件,极大降低了出错概率。如果您偏好命令行直接启动,也可使用 ollama launch openclawollama launch openclaw --config 进入相同向导。

6.3 注意事项

  • 使用向导配置后,OpenClaw 的配置文件 (~/.openclaw/openclaw.json) 将被自动更新,原有手动修改的内容可能被覆盖,建议提前备份。
  • 若您已按照本文第 3 节手动配置并遇到了 “NO OUTPUT” 问题,向导配置通常会绕过该 Bug,因为新版本的集成逻辑已优化。但若问题依然存在,仍可参考第 4 节的修复方法手动修改 provider-utils.js 文件。
  • 向导配置完毕后,您仍可以通过 openclaw tuiopenclaw dashboard 正常启动 OpenClaw 界面。

通过这一更新,Arch Linux 用户现在可以更快捷地搭建本地 AI 助手环境,享受 Ollama 与 OpenClaw 无缝集成的便利。

参考链接


传播安全知识、拓宽行业人脉——看雪讲师团队等你加入!

最后于 2天前 被云净天鉴编辑 ,原因: 添加最新的OLLAMA的配置方式
收藏
免费 1
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回