如果你已经在用 Ollama 跑本地模型,大概率也遇到过这些痛点:
- •命令行不够直观:模型多了之后,找模型、切模型、记参数很费脑。
- •会话难管理:不同任务混在一起,上下文难复用。
- •高级能力不好用:图片识别、文件上下文、推理(Thinking/Chain-of-Thought)模式,往往需要额外拼装。
OllaMan的目标很简单:为 Ollama 提供一个更顺手的桌面聊天客户端,把“连接模型并开始对话”这件事做得更轻松、更稳定、更高效。
OllaMan Chat 主界面
OllaMan 是什么?
OllaMan 是一款专为 Ollama 用户打造的桌面客户端,提供直观的图形界面来管理本地 AI 模型、进行智能对话,并支持连接多台 Ollama 服务器(macOS / Windows / Linux)。
它把 Chat 当作核心能力:
- •多 Agent(多角色):为不同任务创建不同助手
- •多会话:每个 Agent 下分会话管理上下文
- •附件:文件/图片一键作为上下文
- •Thinking Mode:对支持的模型展示可折叠推理过程
- •消息操作:支持编辑修改消息、重新生成 AI 回复、一键复制消息
- •性能统计:实时 Tokens/s、耗时、Token 总量并支持分享卡片
1) 连接 Ollama:本地或多服务器都能用
OllaMan 支持连接多个 Ollama 实例,适合以下场景:
- •本机跑小模型:随开随用、离线优先
- •局域网/远程服务器:把大模型放在性能更强的机器上
- •工作/个人环境隔离:不同服务器不同模型与用途
建议操作流程:
- 1. 确保你的 Ollama 服务已运行(本机或远程主机)。
- 2. 打开 OllaMan,进入Settings → Servers。
- 3. 添加服务器信息(名称、URL;如需可填用户名/密码)。
- 4. 点击连接测试,确认延迟与健康状态。
Servers 设置页
2) 选择模型并开始对话
进入 Chat 页面后,你可以在顶部工具栏快速切换模型:
- 1. 点击模型选择下拉框
- 2. 从本地已安装模型列表中选择
- 3. 切换后立即生效,影响后续对话
同时,OllaMan 会自动识别模型能力:
- •Vision 能力:自动显示图片附件按钮
- •Thinking 能力:自动显示 Think 开关
模型选择与能力标签
3) 用 Agent 把“常用场景”变成一键入口
Agent 是一种预配置的 AI 助手角色。你可以把它理解为“带默认模型与提示词的助手卡片”。
OllaMan 内置默认 Agent:
- •OllaMan:内置默认 Agent,始终置顶,不可删除
- •Frontend Dev:内置前端开发助手(已预设系统提示词)
你也可以创建自己的 Agent:
- 1. 点击左侧边栏的“+”
- 2. 配置名称、图标、描述
- 3. 设置默认模型、系统提示词与生成参数(Temperature / Top P / Top K)
- 4. 通过拖拽调整排序
Agent 列表与创建入口
Agent 创建
提示:建议为常用场景创建少量高质量的 Agent,并保持命名清晰,后续维护会更轻松。
4) 会话管理:把上下文分门别类
每个 Agent 下可以创建多个独立会话,会话按时间分组显示:
- •Today
- •This Week
- •Earlier
常用操作:
- •新建会话:点击 "New Chat" 或使用
Cmd+N/Ctrl+N - •切换会话:点击会话列表
- •删除会话:悬停后点击删除
会话标题会根据首条消息自动生成,便于快速回到某个主题。
5) 附件:把文件/图片直接塞进上下文
这是 OllaMan 在日常使用里最“省事”的能力之一。
文件附件(文本类)
把代码、文档、配置等文本文件作为上下文发送给模型:
- • 支持 TXT / MD / JSON / JS / TS / Python / HTML / CSS 等
- • 点击文件卡片可预览完整内容(代码高亮)
适用场景:
- • 代码审查
- • 需求文档解析
- • 日志/配置排错
文件附件
图片附件(Vision 模型)
当你使用具备视觉能力的模型(如 LLaVA、Gemma2 Vision 等)时,可以直接发送图片:
- • 支持 PNG / JPG / JPEG / GIF / WebP
- • 发送前可预览缩略图、可移除
附件按钮与预览
6) HTML 代码预览:即时查看生成的网页效果
当模型生成 HTML 代码时,OllaMan 提供即时预览功能:
- • 对于 HTML 类型的代码块,代码块右上角会显示一个 Preview 按钮
- • 点击后会弹出预览窗口,实时渲染 HTML 页面效果
- • 适合测试 UI 片段、学习 HTML/CSS 或验证生成的标记代码
无需离开聊天界面即可直观地查看和迭代生成的 HTML 代码。
HTML 代码预览按钮与窗口
7) Thinking Mode:把推理过程"折叠起来给你看"
针对支持思维链/推理的模型(如 DeepSeek R1、QwQ 等),你可以开启Think开关:
- • 推理过程与最终答案分离
- • 推理过程可折叠展示
- • 适合复杂推理、问题拆解、方案对比
Think 模式展示
8) 会话设置:参数只改当前会话,必要时再"保存到 Agent"
右上角设置面板支持会话级参数调整:
- •System Prompt:当前会话的系统提示词
- •Temperature(0-2):越高越发散、越有创意
- •Top P(0-1):越低越集中
- •Top K(1-100):限制候选 token 数
你还可以:
- •Save to Agent:把当前会话设置保存为 Agent 默认
- •Reset to Agent Defaults:一键回到 Agent 默认参数
右侧会话设置面板
9) 性能统计与分享卡片:让"本地跑模型"变得可量化
对话过程中会实时显示:
- • Tokens/s
- • Total Tokens
- • Duration
点击性能指标区域还能生成分享卡片,保存为图片发到社群/朋友圈,特别适合对比不同模型、不同量化等级或不同机器的效果。
性能统计与分享卡片
一些我推荐的用法(最佳实践)
- •为任务建 Agent:写作、编程、翻译、学习,各自一个 Agent
- •相关问题放同一会话:保持上下文连贯
- •创意任务调高 Temperature:例如写文案/头脑风暴
- •精确任务调低 Temperature:例如代码修复/事实问答
- •需要“读文件”就用附件:比复制粘贴更稳定
结语:让 Ollama 的“好用”真正落到每天的工作流里
Ollama 让本地大模型变得触手可及,而 OllaMan 让这件事真正进入你的日常工作流:
- • 更清晰的模型选择与能力识别
- • 更顺手的多 Agent / 多会话管理
- • 更实用的附件与 Thinking Mode
- • 更可视化的性能统计与分享
如果你正在寻找一个更好用的 Ollama 聊天客户端,OllaMan 值得你试试。
OllaMan: https://ollaman.com/