本地 AI 的进阶玩法:用 Ollama + OpenClaw 打造会干活的数字员工
2026/02/02

本地 AI 的进阶玩法:用 Ollama + OpenClaw 打造会干活的数字员工

光会聊天可不够。本文教你如何组合 Ollama 强大的推理能力与 OpenClaw 的执行能力,构建真正能处理复杂任务的本地 Agent 系统。

2025 年被称为"本地大模型元年",我们习惯了用 Ollama 跑个 Llama 3 或 DeepSeek,然后和它聊聊天、问问代码。但到了 2026 年,单纯的"对话"已经不能满足极客们的胃口了。

我们想要的是 Agent(智能体)——不仅能说话,还能真正替我们干活

OpenClaw Terminal Concept

今天我们就来聊聊目前本地 AI 圈最硬核的组合:Ollama(推理引擎)+ OpenClaw(自主执行框架)。在这个架构下,AI 不再只是聊天框里的文字生成器,而是能操作浏览器、读写文件、运行代码的"数字员工"。

第一步:搭建推理基座 (Ollama)

任何 Agent 都需要一颗聪明的"大脑",在本地环境下,Ollama 依然是目前最稳健的选择。

如果你还没安装,直接去 ollama.ai 下载对应版本即可。安装完成后,通常我们会习惯性地打开终端,输入命令来下载模型。

推荐模型

对于 Agent 应用,推荐选择支持**工具调用(Tool Calling)**的模型:

# 通用推理模型
ollama pull llama3.3

# 代码专精模型
ollama pull qwen2.5-coder:32b

# 推理强模型
ollama pull deepseek-r1:32b

# 轻量级选择
ollama pull gpt-oss:20b

但这其实带来了一个小麻烦:终端下载是"黑盒"的

当你想尝试不同模型(比如对比一下 Qwen 2.5 和 Llama 3 的效果),或者模型文件很大(几十 GB)时,看着终端里单调的进度条,你很难直观地管理这些庞然大物。而且,一旦模型装多了,哪些该删、哪些占了多少显存,管理起来非常头疼。

给 Ollama 装个可视化面板:OllaMan

为了解决这个问题,也为了让后续的模型调度更从容,这一步我推荐配合 OllaMan 使用。

它能直接读取你本地的 Ollama 服务,提供了一个类似 App Store 的图形化界面。你可以在上面直观地浏览在线模型库,点击图片就能下载,还能实时看到清晰的下载速率和进度。

OllaMan 模型管理界面

更重要的是,在把模型交给 Agent 之前,你可以先在 OllaMan 的对话界面里简单测试一下模型的逻辑能力。毕竟,如果一个模型连基础对话都逻辑不清,也就没必要浪费时间配置进 Agent 里了。

把模型环境准备好后,地基就打牢了。接下来是重头戏。

第二步:部署执行中枢 (OpenClaw)

OpenClaw 是目前体验最好的本地 Agent 框架之一。它的核心能力在于执行——它拥有系统级的权限,可以执行 Shell 指令、读写文件、甚至操控浏览器。

前置要求

在安装 OpenClaw 之前,请确保你的系统已满足以下条件:

  • Node.js 22 或更高版本

你可以通过以下命令检查 Node 版本:

node --version

一键安装(推荐)

OpenClaw 官方提供了最便捷的一键安装脚本,它会自动处理 Node.js 检测、CLI 安装和配置向导:

macOS / Linux / WSL2

curl -fsSL https://openclaw.ai/install.sh | bash

Windows (PowerShell)

iwr -useb https://openclaw.ai/install.ps1 | iex

💡 安装脚本会自动检测并安装 Node.js 22+(如果缺失),完成后直接启动配置向导。

如果你只想安装 CLI 而不运行配置向导:

# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard

其他安装方式

如果你已有 Node.js 22+ 环境,也可以手动安装:

npm 安装

npm install -g openclaw@latest
openclaw onboard --install-daemon

pnpm 安装

pnpm add -g openclaw@latest
pnpm approve-builds -g
openclaw onboard --install-daemon

macOS 应用

如果你是 macOS 用户,也可以下载 OpenClaw.app 桌面应用:

  1. OpenClaw Releases 下载最新的 .dmg 文件
  2. 安装并启动应用
  3. 完成系统权限配置(TCC 提示)

配置 Ollama 集成

安装完成后,需要将 OpenClaw 与你的 Ollama 服务连接起来。

1. 启用 Ollama API Key

OpenClaw 需要设置一个 API Key 来识别 Ollama 服务(可以是任意值,Ollama 本身不需要真实密钥):

# 设置环境变量
export OLLAMA_API_KEY="ollama-local"

# 或通过 OpenClaw 配置命令
openclaw config set models.providers.ollama.apiKey "ollama-local"

2. 验证 Ollama 服务

确保 Ollama 正在运行:

# 检查 Ollama 是否运行
curl http://localhost:11434/api/tags

# 如果没有运行,启动服务
ollama serve

3. 运行配置向导

OpenClaw 提供了交互式配置向导,自动检测你的 Ollama 模型:

openclaw onboard

向导会自动:

  • 扫描本地 Ollama 服务(http://127.0.0.1:11434
  • 发现所有支持工具调用的模型
  • 配置默认模型设置

4. 手动配置(可选)

如果你想手动指定模型,可以编辑配置文件 ~/.openclaw/openclaw.json

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.3",
        "fallbacks": ["ollama/qwen2.5-coder:32b"]
      }
    }
  }
}

5. 验证配置

检查 OpenClaw 是否成功识别你的 Ollama 模型:

# 查看 OpenClaw 识别的所有模型
openclaw models list

# 查看已安装的 Ollama 模型
ollama list

启动 Gateway

配置完成后,启动 OpenClaw Gateway:

openclaw gateway

Gateway 默认运行在 ws://127.0.0.1:18789,它是 OpenClaw 的核心服务,负责协调模型调用和技能执行。

第三步:实战技巧与场景

环境搭建只是开始,OpenClaw 真正的威力在于它丰富的**技能(Skills)**生态。

场景一:自动化代码评审 (Code Review)

OpenClaw 可以直接读取你的本地项目文件。你可以给它下达这样的指令:

"遍历当前目录下 src/components 里的所有 .tsx 文件,检查是否有 useEffect 缺少依赖项的情况,并将风险点汇总写入 review_report.md。"

在这个过程中:

  1. OpenClaw 调用文件系统技能遍历目录。
  2. Ollama (Llama 3) 阅读代码并进行逻辑推理。
  3. OpenClaw 将推理结果整理并写入新文件。

这比把代码一段段复制给 ChatGPT 要高效得多,且数据完全不离本地。

场景二:远程指挥官 (IM 集成)

OpenClaw 支持接入 Slack, Discord, Telegram 等聊天平台。这意味着你可以把家里的电脑变成一个随时待命的服务器。

玩法示例: 配置好 Telegram 机器人集成后,你出门在外,只需在手机上发一条消息: "Hey Claw, 帮我看一下家里 NAS 的磁盘剩余空间,如果低于 10% 就发个警报给我。"

OpenClaw 会在家里电脑上运行 Shell 命令 df -h,分析结果,然后把报告发回你的手机。

总结

通过 Ollama 提供智力,OllaMan 管理模型资产,OpenClaw 执行具体任务,我们就在本地构建了一套完整的 AI 生产力闭环。

这套组合最大的魅力在于:完全隐私、完全免费、完全掌控

如果你厌倦了单纯的聊天,不妨试试把它装进你的电脑,看看在这个 AI 助手的帮助下,你的工作流能进化成什么样。

邮件列表

加入我们的社区

订阅邮件列表,及时获取最新消息和更新