首页
社区
课程
招聘
[原创] Linux 本地化部署 OpenClaw 指南
发表于: 23小时前 324

[原创] Linux 本地化部署 OpenClaw 指南

23小时前
324

本文将介绍在 Arch Linux 系统中本地化部署 AI 助手 OpenClaw 的过程,并解决一个关键配置问题。

安装 Ollama

1
2
3
4
5
6
7
8
# 一键安装/更新
curl -fsSL https://ollama.com/install.sh | sh
 
# 拉取推荐模型
ollama pull gpt-oss:20b
 
# 运行测试(也可直接访问 http://localhost:11434/)
ollama run gpt-oss:20b "Hello"

模型选择建议:

  • gpt-oss:20b:适合大多数场景,20B参数量平衡了性能与资源需求
  • qwen3-coder:专为编程任务优化
  • glm-4.7:中文处理能力较强
  • gpt-oss:120b:能力最强但需要大量内存(建议64GB+)

安装 OpenClaw

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# OpenClaw基于Node.js开发,需要先安装运行环境
sudo pacman -S node npm
 
# 验证Node.js版本
node --version  # 需要 >= 22.0.0
npm --version
 
# 安装 OpenClaw
npm install -g openclaw@latest
 
# 运行初始化向导
openclaw onboard --install-daemon
 
# 启动 TUI 交互界面
openclaw tui

配置本地模型

配置文件默认位于:~/.openclaw/openclaw.json,主要需配置以下部分:

  • models
    • provider:定义模型后端服务(此处需配置 Ollama)
  • agents
    • models:定义模型别名,方便在会话中快速切换
    • defaults:指定 OpenClaw 的默认模型

以下是关键配置示例:

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "82eK9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8U0p5&6x3W2)9J5k6e0p5$3z5q4)9J5k6e0m8Q4x3X3f1%4x3q4)9K6b7e0p5I4y4o6x3@1i4K6u0r3N6U0p5`.",
        "apiKey": "ollama",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:20b",
            "name": "GPT-OSS 20B",
            "reasoning": false,
            "input": [
              "text"
            ],
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/gpt-oss:20b"  // 设置默认主模型
      },
      "models": {
        "ollama/gpt-oss:20b": {
          "alias": "gpt-oss"  // 定义简短的别名
        }
      }
    }
  },
}

问题排查与解决

完成安装配置后,在 TUI 界面 (openclaw tui) 或浏览器界面(openclaw dashboard)提问时可能出现 NO OUTPUT。若关闭后重新打开,可以看到上次的回复,但再次提问又会出现 NO OUTPUT

这是一个已知的 OpenClaw 代码问题,OpenClaw Issue 2279

  1. 定位文件:/usr/lib/node_modules/openclaw/dist/utils/provider-utils.js
  2. 修改 isReasoningTagProvider 函数,移除对 ollama 的判断
  3. 重启 OpenClaw 服务即可
1
2
3
4
5
6
7
8
9
10
11
12
// 修改前
if (normalized === "ollama" ||
    normalized === "google-gemini-cli" ||
    normalized === "google-generative-ai") {
    return true;
}
 
// 修改后
if (normalized === "google-gemini-cli" ||
    normalized === "google-generative-ai") {
    return true;
}

总结

通过上述步骤,可在 Arch Linux 上快速搭建一个完全本地运行、隐私安全的 AI 助手。OpenClaw 负责连接与交互,Ollama 负责本地模型推理,组合使用避免了云端 API 调用带来的数据隐私和成本问题。遇到的技术问题通过修改源码即可解决,体现了开源方案的优势。

参考链接


传播安全知识、拓宽行业人脉——看雪讲师团队等你加入!

最后于 18小时前 被云净天鉴编辑 ,原因: 补充更多细节
收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回