快速入门
零代码门槛,5 分钟上手 OllaMan
欢迎使用 OllaMan
OllaMan 是一款专业的 Ollama 模型管理桌面应用,通过友好的图形界面,让您轻松管理和使用 AI 模型,无需任何代码基础。
本指南将带您完成从安装到首次对话的全过程。
第一步:安装 Ollama
OllaMan 需要 Ollama 作为后端服务,让我们先安装它。
下载并安装
访问 ollama.com/download,根据您的操作系统下载并安装 Ollama。
验证安装成功
安装完成后,Ollama 会自动在后台运行。让我们验证一下:
- 打开您的浏览器
- 访问
http://localhost:11434 - 如果页面显示 "Ollama is running",恭喜您,安装成功!

看不到这个提示?
如果浏览器显示"无法连接",请检查:
- 系统托盘(Windows)或菜单栏(macOS)是否有 Ollama 图标
- 尝试重启 Ollama 应用程序
- Windows 用户可以在"服务"中查看 Ollama 服务状态
第二步:配置 Ollama
在连接 OllaMan 之前,我们需要对 Ollama 进行必要的设置。
开启网络访问权限
如果 Ollama 服务器部署在远程主机,需要配置允许外部网络访问:
找到 Ollama 图标
- Windows: 在任务栏右下角的系统托盘中找到 Ollama 图标
- macOS: 在屏幕右上角的菜单栏中找到 Ollama 图标
打开设置菜单
右键点击(或左键点击)Ollama 图标,选择 "Settings"(设置)
开启网络访问
在设置窗口中,找到并启用 "Expose Ollama to the network" 选项

为什么要开启网络访问?
安全提示: 这个选项允许同一网络中的其他设备访问您的 Ollama 服务。
- 便利性: OllaMan 和其他管理工具可以连接
- 安全性: 仅在信任的网络环境中开启
- 建议: 如果只在本机使用,默认设置已足够安全
登录 Ollama 账户
如果您想使用 Ollama Cloud 的在线模型,需要登录账户:
点击登录按钮
在 Ollama 设置窗口中,点击 "Sign in"(登录)按钮
创建或登录账户
- 如果已有账户,直接输入邮箱和密码登录
- 如果还没有账户,点击 "Create Account"(创建账户)注册
验证登录状态
登录成功后,设置窗口会显示您的账户信息
为什么需要登录账户?
登录 Ollama 账户后,您将能够:
- 访问 Ollama Cloud 上的在线模型
- 在多台设备间同步您的模型列表
- 收藏和管理喜欢的模型
第三步:连接 OllaMan
现在,让我们启动 OllaMan 并连接到 Ollama 服务。
启动 OllaMan
双击 OllaMan 应用图标启动程序。
配置服务器连接
首次启动时,OllaMan 会自动尝试连接本地 Ollama 服务:
- 在侧边栏顶部,您会看到服务器选择器
- 默认服务器地址是
http://localhost:11434 - 如果连接成功,您会看到绿色的"已连接"状态指示器

连接失败?
如果显示"未连接"状态,请检查:
- 确认 Ollama 正在运行(访问 http://localhost:11434 验证)
- 确认已开启"Expose to network"选项
- 尝试点击"测试连接"按钮重新检测
多服务器管理
您可以添加多个 Ollama 服务器:
打开服务器管理
点击服务器选择器,选择 "Manage Servers"(管理服务器)
添加新服务器
- 点击 "Add Server"(添加服务器)按钮
- 输入服务器名称(如"办公室服务器")
- 输入服务器 URL(如
http://192.168.1.100:11434) - 如果需要,输入认证信息(用户名和密码)
测试并保存
点击 "Test Connection"(测试连接)按钮,连接成功后点击 "Save"(保存)
第四步:管理模型
连接成功后,让我们开始管理您的 AI 模型。
浏览在线模型库
进入在线模型页面
点击侧边栏的 "Discover"(在线模型) 选项
搜索模型
使用搜索框查找您感兴趣的模型,例如:
llama3- Meta 的最新大语言模型mistral- 高性能的开源模型codellama- 专注于代码生成的模型

查看模型详情
点击任意模型卡片,查看详细信息:
- 模型描述和能力
- 可用版本和参数大小
- 下载次数和更新时间
下载模型
找到想要的模型后,您可以直接下载:
选择版本
在模型详情页面,选择适合您的版本:
- 参数越大,模型能力越强,但占用空间和内存也越大
- 建议初次使用选择较小的版本(如 7B)
开始下载
点击版本旁边的 "Pull"(下载)按钮
监控下载进度
右侧自动弹出下载管理器,实时显示:
- 下载进度百分比
- 当前速度
- 预计剩余时间

查看本地模型
进入本地模型页面
点击侧边栏的 "Installed"(本地模型)选项
浏览已安装的模型
您会看到所有已下载的模型,每个卡片显示:
- 模型名称和标签
- 参数规模和量化级别
- 占用空间和修改时间

管理模型
每个模型卡片上有操作按钮:
- "Chat"(聊天): 开始与模型对话
- "Delete"(删除): 移除不需要的模型,释放空间
第五步:开始对话
现在,让我们与 AI 模型进行第一次对话!
选择模型
从本地模型列表中,点击任意模型的 "Chat"(聊天)按钮
开始提问
输入消息
在页面底部的输入框中输入您的问题,例如:
- "你好,请介绍一下你自己"
- "请用 Python 写一个冒泡排序算法"
- "帮我规划一次周末旅行"
发送消息
- 按 Enter 键发送消息
- 按 Shift + Enter 换行
查看回复
模型会实时生成回复,您可以看到:
- 流式显示的文字内容
- 代码高亮和格式化
- 底部显示生成速度(tokens/秒)

高级对话功能
仪表盘:监控系统状态
随时查看系统运行状态:
访问仪表盘
点击侧边栏的 "Dashboard"(仪表盘)选项
查看关键指标
仪表盘实时显示:
模型统计
- 已安装模型总数
- 当前运行中的模型数量
资源占用
- 内存使用情况(VRAM)
- 磁盘空间占用
运行中模型
- 实时显示正在使用的模型
- 模型过期倒计时
- 一键卸载释放内存

下一步
恭喜您完成了 OllaMan 的快速入门!现在您可以:
需要帮助?
获取支持
- 访问完整文档了解详细功能
- 加入社区讨论分享经验
- 在 GitHub 提交问题反馈
- 联系技术支持获取帮助
祝您使用愉快!
OllaMan 文档