一键部署ClawdBot:个人AI助手的简单使用教程
ClawdBot不是另一个需要注册账号、绑定手机号、等审核的云服务。它是一个真正属于你自己的AI助手——装在你本地设备上,数据不上传,响应不依赖网络,模型可以随时更换,界面点点就能调。如果你厌倦了被平台规则限制、担心对话被记录、或者只是想试试“我的AI我做主”是什么感觉,那么ClawdBot就是那个能让你5分钟上手、10分钟用起来、一小时后开始定制的轻量级个人AI网关。
它不追求参数堆砌,也不强调“全模态”噱头,而是把一件事做扎实:让你和大模型之间的交互,变得像打开一个本地应用一样自然。背后用vLLM提供高性能推理能力,前端是直观的Web控制台,配置改几行JSON、点几下按钮,就能让Qwen3-4B这样的模型为你所用。没有Kubernetes,没有Prometheus监控,也没有“请先阅读30页文档再运行”的门槛。
这篇文章不讲原理推导,不列性能对比表,也不带你从源码编译。它只做三件事:
告诉你一条命令怎么把ClawdBot跑起来;
手把手带你打开网页、通过验证、看到第一个可用界面;
教你换模型、调参数、发第一条真正属于你的AI请求。
你不需要懂Docker网络原理,不需要会写YAML,甚至不需要知道vLLM是什么——只要你会复制粘贴命令、会点鼠标、会看懂“pending→approve→done”这个流程,就能完成全部操作。
1. 快速启动:一条命令跑起来
ClawdBot镜像已经预装了所有依赖:vLLM服务、Web UI、CLI工具、默认模型权重(Qwen3-4B-Instruct-2507)以及基础配置模板。你唯一要做的,就是把它拉下来、跑起来。
1.1 环境准备(极简版)
- 操作系统:Linux(推荐Ubuntu 22.04+ / Debian 12+),macOS(Intel/M1/M2)也可用,Windows需WSL2
- 内存:最低8GB(运行Qwen3-4B需约6GB显存或内存,无GPU时自动fallback到CPU模式)
- 磁盘:预留2GB空闲空间(含模型缓存)
- Docker:已安装并可正常运行(
docker --version能返回版本号)
小提示:如果你还没装Docker,别急着去查官方文档。直接执行下面这行命令(适用于Ubuntu/Debian),30秒搞定:
curl -fsSL https://get.docker.com | sh && sudo usermod -aG docker $USER执行完后退出终端重新登录,再继续下一步。
1.2 启动容器
在终端中执行以下命令(无需sudo,除非你没加入docker组):
docker run -d \ --name clawdbot \ -p 7860:7860 \ -p 8000:8000 \ -v ~/.clawdbot:/home/work/.clawdbot \ -v ~/clawdbot-workspace:/app/workspace \ --restart=unless-stopped \ registry.cn-hangzhou.aliyuncs.com/csdn-mirror/clawdbot:latest这条命令做了什么?我们用大白话解释:
-d:后台运行,不占你当前终端--name clawdbot:给容器起个名字,方便后续管理-p 7860:7860:把容器里的7860端口(Web UI)映射到你本机的7860端口-p 8000:8000:把vLLM API服务端口也暴露出来,供其他程序调用-v ~/.clawdbot:/home/work/.clawdbot:把你的家目录下的.clawdbot文件夹挂载进容器,保存所有配置和日志-v ~/clawdbot-workspace:/app/workspace:挂载一个工作区,以后上传文件、保存对话都会放这里--restart=unless-stopped:电脑重启后自动拉起ClawdBot,不用手动再跑一遍
执行完成后,输入docker ps | grep clawdbot,如果看到状态是Up X minutes,说明容器已在运行。
注意:首次启动会自动下载模型权重(约2.3GB),可能需要2–5分钟,请耐心等待。期间可通过
docker logs -f clawdbot查看进度(按 Ctrl+C 退出日志流)。
2. 打开界面:三步通过设备验证
ClawdBot的Web控制台默认不直接开放访问,这是出于安全考虑——防止未授权用户随意操作你的AI网关。它采用“设备配对”机制,类似你第一次连蓝牙耳机时要点“配对”。
整个过程只需三步,全部在终端里完成:
2.1 查看待处理的设备请求
运行命令:
clawdbot devices list你会看到类似这样的输出:
ID Status Created At User Agent abc123 pending 2026-01-24 14:22:05 Mozilla/5.0 (X11; Linux x86_64)...其中Status是pending的那条,就是你刚在浏览器里尝试访问http://localhost:7860时触发的请求。
2.2 批准该设备
复制上面输出中的ID(比如abc123),执行:
clawdbot devices approve abc123如果成功,会显示:
Device abc123 approved.2.3 访问Web控制台
现在,打开浏览器,访问:
http://localhost:7860
你应该能看到一个清爽的蓝色主题界面,顶部有「Chat」「Config」「Models」「Agents」等标签页——这就是ClawdBot的控制中心。
如果页面打不开?别慌。先确认:
- Docker容器确实在运行(
docker ps | grep clawdbot)- 你访问的是
http://localhost:7860,不是https,也不是127.0.0.1(某些系统对localhost解析更稳定)- 防火墙没拦截7860端口(家用环境通常没问题)
还不行?直接运行:
clawdbot dashboard它会打印出带token的完整链接,例如:
http://localhost:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762
复制粘贴进浏览器即可。
3. 第一次对话:发送你的首条AI请求
进入Web界面后,点击顶部的Chat标签页,你会看到一个干净的聊天窗口,左侧是对话历史,右侧是输入框。
但此时还不能直接发消息——因为ClawdBot默认启用“会话守门人”机制,确保每次请求都经过明确授权。你需要先创建一个会话(Session)。
3.1 创建新会话
点击右上角的+ New Session按钮,在弹出窗口中:
- Name:随便填,比如“我的第一个测试”
- Model:保持默认
vllm/Qwen3-4B-Instruct-2507(这就是内置的Qwen3模型) - Agent:选
default(暂不深究Agent概念,它本质是“任务角色模板”,默认就够用) - 点击Create
几秒后,新会话出现在左侧列表中,自动进入聊天界面。
3.2 发送第一条消息
在输入框中输入:
你好,我是第一次用ClawdBot,请用一句话介绍你自己。然后按回车或点发送按钮。
你会看到:
- 输入框下方出现“Thinking…”提示
- 几秒钟后(CPU模式约3–8秒,有GPU则更快),AI回复出现,内容清晰、语句通顺,且明显带有Qwen系列模型的表达风格
恭喜!你已完成从零到第一句AI对话的全流程。
🧩 小技巧:你可以随时点击输入框上方的「⚙」图标,临时调整温度(temperature)、最大输出长度(max tokens)等参数,无需改配置文件。适合快速试错。
4. 换模型:不改代码,点点就换
ClawdBot默认用的是Qwen3-4B-Instruct-2507,但它支持任意兼容OpenAI API格式的模型。你想换成Phi-3、Gemma-2B,甚至自己微调的小模型?完全可行,而且非常简单。
4.1 方法一:通过UI修改(推荐新手)
- 点击顶部Config→Models
- 在「Providers」区域,找到
vllm条目,点击右侧的铅笔图标(Edit) - 在弹出的JSON编辑器中,把
models数组里的内容替换成你想要的模型信息,例如:
[ { "id": "phi-3-mini-4k-instruct", "name": "Phi-3 Mini 4K" }, { "id": "gemma-2b-it", "name": "Gemma 2B Instruct" } ]- 点击Save,然后回到Models页面顶部,点击Refresh List
- 稍等几秒,刷新后你就能在模型下拉菜单中看到新增的选项了
注意:模型ID必须与你本地vLLM服务中加载的模型名完全一致。如果你还没加载新模型,请先用vLLM命令启动它(ClawdBot本身不负责模型加载,只做路由和调度)。
4.2 方法二:直接改配置文件(适合批量管理)
配置文件路径为:~/.clawdbot/clawdbot.json
用你喜欢的编辑器打开它(如nano ~/.clawdbot/clawdbot.json),找到models.providers.vllm.models部分,按上面JSON格式添加即可。
改完保存,再执行:
clawdbot models reloadClawdBot会热重载配置,无需重启容器。
4.3 验证模型是否生效
回到终端,运行:
clawdbot models list你应该能看到类似输出:
Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default vllm/phi-3-mini-4k-instruct text 4k yes yes vllm/gemma-2b-it text 8k yes yes只要出现在这里,就代表ClawdBot已识别并可调用。
5. 实用技巧:让ClawdBot更好用的5个小建议
ClawdBot设计简洁,但藏着不少提升体验的细节。这些不是“高级功能”,而是日常高频使用的贴心设计。
5.1 工作区(Workspace):你的AI文件保险箱
ClawdBot把/app/workspace挂载到了你本地的~/clawdbot-workspace。这意味着:
- 你在Web界面中上传的PDF、图片、TXT文件,都会存在这个文件夹里
- 你用Agent处理过的分析结果、生成的报告,也会默认保存在这里
- 你可以用任何本地工具(VS Code、Typora、Finder)直接打开、编辑、备份这些文件
💾 建议:把这个文件夹加入你的云同步服务(如iCloud、OneDrive),实现跨设备AI工作流。
5.2 CLI比UI更快:常用操作记这几个命令
| 命令 | 作用 | 示例 |
|---|---|---|
clawdbot status | 查看整体运行状态(vLLM是否就绪、Web是否在线) | clawdbot status |
clawdbot agents list | 列出所有可用Agent(角色模板) | clawdbot agents list |
clawdbot logs --tail 50 | 查看最近50行日志,排查问题快人一步 | clawdbot logs --tail 50 |
clawdbot restart | 优雅重启,比docker restart更安全 | clawdbot restart |
提示:所有CLI命令都支持
--help,比如clawdbot devices --help,会列出子命令说明。
5.3 代理支持:国内用户友好设计
如果你在国内,又想调用Google Translate、维基查询等外部服务,ClawdBot原生支持SOCKS5/HTTP代理。只需在clawdbot.json中添加:
"proxy": { "http": "http://127.0.0.1:7890", "https": "http://127.0.0.1:7890" }然后执行clawdbot restart即可生效。无需额外装代理客户端,ClawdBot内部自动接管。
5.4 “阅后即焚”模式:隐私真的由你掌控
ClawdBot默认不存储任何用户消息。但如果你希望更进一步,开启“阅后即焚”:
在clawdbot.json中设置:
"privacy": { "ephemeral": true, "logRetentionDays": 0 }这样,所有对话日志在会话结束后立即删除,连磁盘痕迹都不留。
5.5 自定义Agent:一句话定义你的专属AI角色
Agent不是复杂插件,而是一段描述性Prompt。比如你想创建一个“技术文档翻译助手”,只需在Config → Agents → + New Agent中填写:
- Name:
TechDoc Translator - Description:
专用于将英文技术文档准确翻译为中文,保留术语一致性,不擅自润色,遇到不确定术语时主动询问 - System Prompt:
你是一位资深中英技术文档翻译专家。请严格遵循:1. 专业术语统一(如LLM→大语言模型,not 大型语言模型);2. 不添加原文没有的内容;3. 遇到模糊术语,用【?】标出并附简短英文说明。
保存后,新建会话时选择这个Agent,它就会按你设定的角色持续工作。
6. 总结:你的AI,从此真正属于自己
ClawdBot不是一个“又要学新语法、又要配新环境”的玩具项目。它是一套经过打磨的、面向真实使用场景的个人AI基础设施:
- 它用最轻量的方式,把vLLM的强大推理能力封装成开箱即用的服务;
- 它用Web界面降低使用门槛,用CLI保留工程灵活性;
- 它不绑架你的数据,不锁定你的模型,不强加你的工作流;
- 它允许你今天用Qwen写周报,明天换Phi-3读论文,后天接入自己微调的客服模型——一切平滑切换,无需重装、无需迁移。
你不需要成为DevOps工程师,也能拥有一个24小时在线、响应迅速、完全可控的AI助手。这不是未来,而是你现在就能拥有的现实。
如果你已经跑通了第一步对话,接下来可以试试:
🔹 把一份技术文档PDF拖进workspace,用Agent让它总结重点;
🔹 在Config里加一个天气查询Agent,让它实时告诉你北京的温度;
🔹 或者干脆删掉默认模型,换成你最喜欢的开源小模型,看看它在你设备上的表现。
AI不该是黑盒云服务,而应是你桌面上的一个可靠工具。ClawdBot,就是朝这个方向迈出的踏实一步。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。