
本地 AI 的进阶玩法:用 Ollama + OpenClaw 打造会干活的数字员工
光会聊天可不够。本文教你如何组合 Ollama 强大的推理能力与 OpenClaw 的执行能力,构建真正能处理复杂任务的本地 Agent 系统。
2025 年被称为"本地大模型元年",我们习惯了用 Ollama 跑个 Llama 3 或 DeepSeek,然后和它聊聊天、问问代码。但到了 2026 年,单纯的"对话"已经不能满足极客们的胃口了。
我们想要的是 Agent(智能体)——不仅能说话,还能真正替我们干活。

今天我们就来聊聊目前本地 AI 圈最硬核的组合:Ollama(推理引擎)+ OpenClaw(自主执行框架)。在这个架构下,AI 不再只是聊天框里的文字生成器,而是能操作浏览器、读写文件、运行代码的"数字员工"。
第一步:搭建推理基座 (Ollama)
任何 Agent 都需要一颗聪明的"大脑",在本地环境下,Ollama 依然是目前最稳健的选择。
如果你还没安装,直接去 ollama.ai 下载对应版本即可。安装完成后,通常我们会习惯性地打开终端,输入命令来下载模型。
推荐模型
对于 Agent 应用,推荐选择支持**工具调用(Tool Calling)**的模型:
# 通用推理模型
ollama pull llama3.3
# 代码专精模型
ollama pull qwen2.5-coder:32b
# 推理强模型
ollama pull deepseek-r1:32b
# 轻量级选择
ollama pull gpt-oss:20b但这其实带来了一个小麻烦:终端下载是"黑盒"的。
当你想尝试不同模型(比如对比一下 Qwen 2.5 和 Llama 3 的效果),或者模型文件很大(几十 GB)时,看着终端里单调的进度条,你很难直观地管理这些庞然大物。而且,一旦模型装多了,哪些该删、哪些占了多少显存,管理起来非常头疼。
给 Ollama 装个可视化面板:OllaMan
为了解决这个问题,也为了让后续的模型调度更从容,这一步我推荐配合 OllaMan 使用。
它能直接读取你本地的 Ollama 服务,提供了一个类似 App Store 的图形化界面。你可以在上面直观地浏览在线模型库,点击图片就能下载,还能实时看到清晰的下载速率和进度。

更重要的是,在把模型交给 Agent 之前,你可以先在 OllaMan 的对话界面里简单测试一下模型的逻辑能力。毕竟,如果一个模型连基础对话都逻辑不清,也就没必要浪费时间配置进 Agent 里了。
把模型环境准备好后,地基就打牢了。接下来是重头戏。
第二步:部署执行中枢 (OpenClaw)
OpenClaw 是目前体验最好的本地 Agent 框架之一。它的核心能力在于执行——它拥有系统级的权限,可以执行 Shell 指令、读写文件、甚至操控浏览器。
前置要求
在安装 OpenClaw 之前,请确保你的系统已满足以下条件:
- Node.js 22 或更高版本
你可以通过以下命令检查 Node 版本:
node --version一键安装(推荐)
OpenClaw 官方提供了最便捷的一键安装脚本,它会自动处理 Node.js 检测、CLI 安装和配置向导:
macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bashWindows (PowerShell)
iwr -useb https://openclaw.ai/install.ps1 | iex💡 安装脚本会自动检测并安装 Node.js 22+(如果缺失),完成后直接启动配置向导。
如果你只想安装 CLI 而不运行配置向导:
# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard其他安装方式
如果你已有 Node.js 22+ 环境,也可以手动安装:
npm 安装
npm install -g openclaw@latest
openclaw onboard --install-daemonpnpm 安装
pnpm add -g openclaw@latest
pnpm approve-builds -g
openclaw onboard --install-daemonmacOS 应用
如果你是 macOS 用户,也可以下载 OpenClaw.app 桌面应用:
- 从 OpenClaw Releases 下载最新的
.dmg文件 - 安装并启动应用
- 完成系统权限配置(TCC 提示)
配置 Ollama 集成
安装完成后,需要将 OpenClaw 与你的 Ollama 服务连接起来。
1. 启用 Ollama API Key
OpenClaw 需要设置一个 API Key 来识别 Ollama 服务(可以是任意值,Ollama 本身不需要真实密钥):
# 设置环境变量
export OLLAMA_API_KEY="ollama-local"
# 或通过 OpenClaw 配置命令
openclaw config set models.providers.ollama.apiKey "ollama-local"2. 验证 Ollama 服务
确保 Ollama 正在运行:
# 检查 Ollama 是否运行
curl http://localhost:11434/api/tags
# 如果没有运行,启动服务
ollama serve3. 运行配置向导
OpenClaw 提供了交互式配置向导,自动检测你的 Ollama 模型:
openclaw onboard向导会自动:
- 扫描本地 Ollama 服务(
http://127.0.0.1:11434) - 发现所有支持工具调用的模型
- 配置默认模型设置
4. 手动配置(可选)
如果你想手动指定模型,可以编辑配置文件 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.3",
"fallbacks": ["ollama/qwen2.5-coder:32b"]
}
}
}
}5. 验证配置
检查 OpenClaw 是否成功识别你的 Ollama 模型:
# 查看 OpenClaw 识别的所有模型
openclaw models list
# 查看已安装的 Ollama 模型
ollama list启动 Gateway
配置完成后,启动 OpenClaw Gateway:
openclaw gatewayGateway 默认运行在 ws://127.0.0.1:18789,它是 OpenClaw 的核心服务,负责协调模型调用和技能执行。
第三步:实战技巧与场景
环境搭建只是开始,OpenClaw 真正的威力在于它丰富的**技能(Skills)**生态。
场景一:自动化代码评审 (Code Review)
OpenClaw 可以直接读取你的本地项目文件。你可以给它下达这样的指令:
"遍历当前目录下 src/components 里的所有 .tsx 文件,检查是否有 useEffect 缺少依赖项的情况,并将风险点汇总写入 review_report.md。"
在这个过程中:
- OpenClaw 调用文件系统技能遍历目录。
- Ollama (Llama 3) 阅读代码并进行逻辑推理。
- OpenClaw 将推理结果整理并写入新文件。
这比把代码一段段复制给 ChatGPT 要高效得多,且数据完全不离本地。
场景二:远程指挥官 (IM 集成)
OpenClaw 支持接入 Slack, Discord, Telegram 等聊天平台。这意味着你可以把家里的电脑变成一个随时待命的服务器。
玩法示例: 配置好 Telegram 机器人集成后,你出门在外,只需在手机上发一条消息: "Hey Claw, 帮我看一下家里 NAS 的磁盘剩余空间,如果低于 10% 就发个警报给我。"
OpenClaw 会在家里电脑上运行 Shell 命令 df -h,分析结果,然后把报告发回你的手机。
总结
通过 Ollama 提供智力,OllaMan 管理模型资产,OpenClaw 执行具体任务,我们就在本地构建了一套完整的 AI 生产力闭环。
这套组合最大的魅力在于:完全隐私、完全免费、完全掌控。
如果你厌倦了单纯的聊天,不妨试试把它装进你的电脑,看看在这个 AI 助手的帮助下,你的工作流能进化成什么样。
作者
分类
更多文章

使用 OllaMan,小白也能运行大模型
零门槛上手本地 AI:告别命令行,用 OllaMan 图形界面轻松管理 Ollama 模型,5 分钟完成从安装到对话的全流程。

这可能是最好用的 Ollama 聊天客户端:OllaMan
用 OllaMan 连接本地或远程 Ollama,一站式完成模型选择、多 Agent 多会话对话、附件(文件/图片)与 Thinking Mode 等高级能力。

2025 Ollama 全新图形界面
介绍全新的 OllaMan GUI for Ollama - 将命令行操作转化为简单点击的强大桌面界面。
邮件列表
加入我们的社区
订阅邮件列表,及时获取最新消息和更新