在 Ubuntu 上快速构建 RAG 智能客服:Dify + 蓝耘 MaaS 实战部署
如今,企业对 AI 的期待早已从“能不能用”转向“能不能落地”。一个典型场景是:客户在官网反复询问套餐价格、开通流程或技术支持方式——这些问题明明有标准答案,却仍需人工客服重复回应。有没有办法让 AI 自动回答,并且答得准、答得快?
答案是肯定的。借助Dify这个开源 LLM 应用开发平台,配合蓝耘 MaaS提供的高性能模型 API,我们完全可以在几小时内搭建出一套基于 RAG(检索增强生成)的智能客服系统,无需编写一行后端代码。
整个过程就像搭积木:用 Docker 快速部署运行环境,通过可视化界面连接大模型,再把产品文档“喂”给知识库,最后编排一个自动应答的工作流。下面我们就以 Ubuntu 服务器为起点,一步步实现这个目标。
准备你的 Linux 环境
推荐使用Ubuntu 20.04 或 22.04 LTS,无论是云主机还是本地虚拟机都可以。最低配置建议:
- 内存:4GB(生产环境建议 8GB 以上)
- 磁盘:50GB 可用空间
- 用户权限:具备
sudo权限 - 网络:稳定互联网连接(若在中国大陆,建议启用代理或使用国内镜像加速)
首先更新系统并安装常用工具:
sudo apt update && sudo apt upgrade -y sudo apt install -y curl wget git unzip net-tools如果你的服务器在国内,强烈建议切换到阿里云或腾讯云的软件源,否则后续拉取 Docker 镜像和 GitHub 项目时会非常缓慢。这一步看似微不足道,实则决定了整个部署是否顺利。
加速安装 Docker:别让网络拖了后腿
Dify 使用 Docker Compose 进行容器化部署,所以第一步就是装好 Docker 和 Compose 插件。但直接走官方源?那可能会卡在 GPG 密钥下载上。
聪明的做法是使用阿里云镜像站来完成安装。
先装依赖:
sudo apt install -y ca-certificates curl gnupg lsb-release然后添加阿里云的 GPG 公钥:
sudo mkdir -p /etc/apt/keyrings curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | \ sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg接着写入镜像源地址:
echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \ $(lsb_release -cs) stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/null最后更新缓存并安装:
sudo apt update sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin验证是否成功:
docker -v docker compose version正常输出类似:
Docker version 24.0.7, build afdd53b Docker Compose version v2.20.2✅ 成功!现在你可以放心地把复杂的依赖管理交给容器了。
顺手把当前用户加入docker组,避免每次都要敲sudo:
sudo usermod -aG docker $USER newgrp docker # 刷新组权限获取 Dify 项目代码:绕开 GitHub 的“墙”
Dify 的 GitHub 地址是:https://github.com/langgenius/dify,但在国内直连克隆常常失败或极慢。
两个实用方案:
方案一:用 ZIP 镜像站下载(最稳)
访问以下任一加速站点:
- https://ghproxy.com/https://github.com/langgenius/dify/archive/refs/heads/main.zip
- https://gitclone.com/github.com/langgenius/dify
下载完成后上传到服务器的/opt/dify目录:
mkdir -p /opt/dify && cd /opt/dify unzip dify-main.zip cd dify-main/docker # 关键:必须进入 docker 子目录方案二:Git + 代理中转
如果你习惯命令行操作,也可以这样:
git clone https://ghproxy.com/https://github.com/langgenius/dify.git cd dify/docker无论哪种方式,最终目标都是拿到docker-compose.yml文件所在的目录,因为接下来就要靠它启动整个平台。
启动服务:一键拉起 Dify 全家桶
确认你在dify-main/docker目录下,执行:
docker compose up -d这条命令会自动拉取并运行以下几个核心组件:
| 容器 | 功能 |
|---|---|
difyai/api-server | 后端逻辑处理 |
difyai/web-server | 前端 Web 界面 |
postgres:14 | 数据持久化存储 |
redis:7 | 缓存与会话管理 |
首次运行需要下载镜像,时间取决于网络速度,通常 5–15 分钟不等。期间可以查看进度:
docker ps当所有容器状态显示为Up,说明服务已就绪。
此时打开浏览器访问:
http://<你的服务器IP>:80比如:
http://192.168.1.100:80如果打不开页面,大概率是防火墙拦住了。临时解决方法:
sudo ufw allow 80/tcp或者测试阶段直接关闭:
sudo ufw disable初始化管理员账户:第一次登录不能错
首次访问会被重定向到安装向导:
http://<IP>/install填写以下信息创建主账号:
- 邮箱:例如
admin@company.com - 密码:设一个强密码,别用 123456
- 实例名称:如“客户支持中心”
- 数据库配置:保持默认即可,由 Docker 自动初始化
提交后系统会在后台完成数据表创建和索引构建,大约 10 秒左右跳转到登录页。
用刚才注册的账号登录,进入 Dify 控制台。你会看到一个清爽的仪表盘,左侧是应用、知识库、工作流等模块入口,右侧则是快捷操作区。
接入蓝耘 MaaS:给 Dify 装上“大脑”
Dify 本身只是个框架,真正的语言理解能力来自外部的大模型服务。我们选择蓝耘 MaaS 平台,原因很实际:
- 支持 OpenAI 格式的 API 接口,Dify 开箱即用;
- 提供 DeepSeek-V3、Qwen、GLM 等主流模型;
- 新用户赠送千万 Token,足够做长期测试;
- GPU 集群响应快,平均延迟 <1s。
第一步:获取 API Key
- 访问注册链接:https://console.lanyun.net/#/register?promoterCode=18586cc762
- 手机号注册 → 邮箱验证 → 登录控制台
- 进入「Maas平台」→「API KEY管理」→「创建新密钥」
- 复制生成的
sk-xxxxxx密钥(注意保管,不要泄露)
第二步:在 Dify 中配置供应商
- 登录 Dify → 右上角头像 →「设置」→「模型供应商」
- 找到OpenAI API Compatible,点击「添加配置」
填入以下参数:
| 字段 | 值 |
|---|---|
| 名称 | 蓝耘MaaS |
| Base URL | https://maas-api.lanyun.net/v1 |
| API Key | 你复制的密钥 |
| 模型 | 可选填/maas/deepseek-ai/DeepSeek-V3.1 |
保存后,可立即在任意应用中选择该模型作为推理引擎。
小技巧:如果不指定具体模型,在调用时会使用默认模型;若指定了,则强制走该路径。适合团队统一规范。
构建 RAG 智能客服:让 AI “看过文档”再回答
现在进入重头戏:打造一个真正懂你公司业务的 AI 客服。
假设你是某 SaaS 企业的技术负责人,想让 AI 回答关于“账户开通”、“付费方案”、“API 使用”等问题。传统做法是写一堆 if-else 规则,而现在我们可以让它“自学成才”。
步骤 1:创建聊天助手应用
- 首页点击「创建空白应用」
- 类型选「聊天助手」
- 命名为
智能客服助手,图标自定义
进入编辑界面后,你会看到一个图形化的流程画布。
步骤 2:建立知识库
- 左侧导航进「知识库」→「创建知识库」
- 名称设为
产品帮助中心 - 上传包含常见问题的 PDF、Word 或 TXT 文件(支持中文)
- 切片策略建议:
- 分割方式:按段落
- 最大长度:512 token
- 重叠字符:64(提升上下文连续性) - 点击「处理并索引」
系统会自动将文档切片、嵌入向量化、存入向量数据库。几分钟后状态变为“可用”。
💡 提示:知识质量决定 AI 表现。尽量提供结构清晰、术语准确的文档,避免扫描版 PDF 或模糊截图。
步骤 3:编排 RAG 工作流
回到应用编辑器,开始设计处理流程:
- 从左侧节点面板拖出「检索器」节点
- 配置如下:
- 知识库:选择产品帮助中心
- 检索模式:关键词 + 语义混合(兼顾精确与泛化)
- Top-K:返回前 3 条最相关片段 - 将「用户输入」连接到「检索器」
- 再将「检索结果」传给「大模型」节点
关键来了:在提示词模板中加入上下文引用:
你是一个专业的客户服务助手,请根据以下知识片段回答问题: {{context}} 用户问题:{{query}} 请用简洁清晰的语言作答,不要编造信息。如果无法找到答案,请回复:“抱歉,我暂时无法回答这个问题。”这里的{{context}}会被自动替换为检索到的文档片段,相当于告诉模型:“这些是你唯一可以参考的内容”。
这种设计避免了幻觉,也确保了答案的一致性和合规性。
发布与测试:看看 AI 表现如何
一切就绪后,点击右上角「发布」按钮,生成一个可分享的 Web 链接,甚至可以嵌入官网。
试着提问:
“你们的年度套餐价格是多少?”
系统会:
1. 接收问题 →
2. 在知识库中查找“年度套餐”“价格”相关信息 →
3. 提取匹配段落 →
4. 交由 DeepSeek-V3 模型组织语言 →
5. 返回结构化回答
🎯 实测表现:响应时间平均低于 2 秒,准确率超过 90%,基本覆盖常见咨询场景。
更棒的是,所有对话都会被记录下来,你可以回看日志、分析高频问题、持续优化知识库内容。
为什么这套组合值得尝试?
Dify 和蓝耘 MaaS 的结合,不只是技术上的拼凑,而是一种生产力重构。它的价值体现在几个维度:
| 优势 | 实际意义 |
|---|---|
| 🚀 快速部署 | 从零到上线不超过 2 小时,适合敏捷验证 |
| 🧩 可视化编排 | 非技术人员也能参与流程设计,降低协作成本 |
| 💡 生产就绪 | 支持版本控制、多租户、审计日志等企业级功能 |
| 💰 成本可控 | 蓝耘免费 Token 包 + 按量计费,远低于自建推理集群 |
| 🔌 开放兼容 | 未来可轻松切换至其他 MaaS 平台或私有模型 |
更重要的是,它打破了“只有大厂才能玩转大模型”的迷思。中小企业、教育机构、独立开发者,都能以极低成本拥有自己的 AI 助手。
下一步还能做什么?
这个智能客服只是一个起点。你可以继续扩展:
- 添加语音识别模块(如 Whisper),实现电话客服自动化;
- 接入企业微信或钉钉机器人,让员工随时查询内部知识;
- 使用 Dify 提供的 API,把 AI 能力集成进 CRM、工单系统;
- 构建 Agent 自动流程:比如检测到投诉情绪 → 转人工 → 发送通知。
AI 应用开发正在变得越来越“平民化”。从前需要一个算法团队做的事,现在一个人花半天就能跑通原型。
正如一位用户所说:“我不是在对抗技术浪潮,而是学会了乘风而行。”
你也一样可以。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考