小白也能懂:Flowise拖拽式AI工作流搭建保姆级教程
你是不是也遇到过这些情况:
- 想用大模型做点实际事,但一看到 LangChain 的代码就头皮发麻?
- 看到 RAG、Agent、向量检索这些词,像在读天书?
- 明明有现成的公司文档、产品手册、客服记录,却没法让 AI 直接“读懂”它们来回答问题?
- 试过几个 AI 工具,不是要写代码,就是要配环境,折腾半天连个能对话的页面都没跑起来?
别急——今天这篇教程,就是为你写的。
不讲抽象概念,不堆技术术语,不让你装十个依赖、改八处配置。我们用 Flowise,从零开始,纯图形界面操作,15 分钟内完成一个能读你本地 PDF、实时问答的知识库助手。整个过程就像拼乐高:拖、拉、连、点、运行。
你不需要会 Python,不需要懂向量数据库原理,甚至不需要知道什么是 LLM。只要你能打开浏览器、会鼠标操作,就能跟着做完。
下面我们就一步步来。
1. 先搞明白:Flowise 到底是啥?它能帮你解决什么问题?
1.1 一句话说清本质
Flowise 是一个「把 AI 能力变成积木块」的可视化平台。它把原本需要写几十行代码才能串起来的 AI 功能(比如调用大模型、切分文档、存进向量库、再召回匹配内容),全部封装成一个个带图标的节点——你可以像画流程图一样,把它们拖到画布上,用鼠标连线,就组成了一个完整的工作流。
它不是另一个聊天框,而是一个「AI 应用组装台」
它不替代模型,而是让你轻松调度模型(本地 vLLM、Ollama、HuggingFace、甚至 OpenAI)
它不强制你学 LangChain,但背后完全兼容 LangChain 生态,导出的流程可直接复用为代码
1.2 它特别适合这三类人
- 业务同学:市场/运营/客服,想快速做个内部知识问答页,不用等研发排期
- 非科班产品经理:想验证一个 AI 功能想法(比如“自动总结会议纪要”),先搭出来给老板看效果
- 刚入门的开发者:想理解 RAG 是怎么跑起来的,边拖边学,比硬啃文档快十倍
1.3 和你可能用过的工具对比一下
| 工具 | 需要写代码? | 能否本地运行? | 是否支持私有文档接入? | 上手时间(新手) |
|---|---|---|---|---|
| ChatGPT 网页版 | ❌ 否 | ❌ 否(纯云端) | ❌ 否(无法传内部文件) | 30 秒 |
| Ollama + CLI | 是(命令+提示词) | 是 | 可(但需手动处理) | 1–2 小时 |
| LangChain 官方示例 | 是(Python 全栈) | 是 | 是 | 半天起步 |
| Flowise | ❌ 否(纯拖拽) | ** 是(一键启动)** | ** 是(上传 PDF/Word/TXT 即可)** | 15 分钟 |
你看,它补上的,正是「想法 → 可运行原型」之间最陡的那道坎。
2. 零配置启动:3 分钟跑起 Flowise 本地服务
Flowise 提供了开箱即用的 Docker 镜像,我们不用编译、不碰 npm、不改环境变量——只要你的电脑能跑 Docker,就能立刻开始。
提示:本文全程使用你提供的镜像
Flowise(基于 vLLM 的本地模型版本),已预装好核心模型和依赖,无需额外下载大模型。
2.1 一行命令启动(推荐方式)
打开终端(Mac/Linux)或 PowerShell(Windows),粘贴执行:
docker run -d \ -p 3000:3000 \ -v $(pwd)/flowise-storage:/app/packages/server/storage \ --name flowise \ flowiseai/flowise这条命令做了三件事:
-p 3000:3000:把容器内 3000 端口映射到本机,方便浏览器访问-v ...:挂载一个本地文件夹,用来持久化你上传的文档、保存的工作流,关掉容器也不丢数据flowiseai/flowise:拉取并运行官方镜像(你提供的镜像已优化为 vLLM 加速版,响应更快)
如果你用的是 Windows,且提示
$(pwd)报错,请改用绝对路径,例如:-v C:\my-flowise\storage:/app/packages/server/storage
2.2 等待启动完成 & 登录系统
执行后你会看到一串容器 ID。稍等 60–90 秒(vLLM 加载模型需要一点时间),然后在浏览器打开:
http://localhost:3000
输入你提供的演示账号:
- 邮箱:kakajiang@kakajiang.com
- 密码:KKJiang123
登录成功后,你会看到一个清爽的蓝色主界面——左侧是节点栏,中间是空白画布,右侧是属性面板。这就是你的 AI 工作室。
3. 第一个实战:搭建「PDF 文档问答机器人」(RAG 流程)
我们不做虚的,直接做一个最常用、最实用的场景:让你的 PDF 文档开口说话。比如,把《公司员工手册.pdf》扔进去,问“年假怎么休?”,它立刻从文档里找出原文回答你。
整个流程只需 5 个节点,全部拖拽完成。
3.1 准备一份测试文档(1 分钟)
找一个你手边的 PDF 文件(哪怕只有一页),或者用这个极简示例:
→ 下载 sample-handbook.pdf(虚构链接,实际可用任意 PDF)
小技巧:首次尝试建议用 1–3 页的 PDF,避免加载过慢;Flowise 支持 Word、TXT、Markdown 等格式,同理可替换。
3.2 拖拽搭建工作流(5 分钟,手把手)
请按顺序操作(每步都有截图逻辑,即使看不到图也能跟上):
步骤 1:添加「文档上传」入口
- 左侧节点栏 → 找到Document类别 → 拖一个"File Upload"节点到画布中央
- 点击该节点 → 右侧属性面板中,将"Name"改为
上传PDF(方便识别) - 这是你未来上传 PDF 的“门”
步骤 2:添加「文本切分」处理器
- 左侧 →Document类别 → 拖一个"Text Splitter"节点到画布,放在
上传PDF右侧 - 连线:鼠标按住
上传PDF节点右下角的圆点,拖到Text Splitter左上角圆点,松开 → 出现一条蓝线 - 点击
Text Splitter→ 右侧设置:Chunk Size:500(每段最多 500 字,平衡精度与速度)Chunk Overlap:50(相邻段落重叠 50 字,避免断句丢失语义)
- 这一步把长 PDF “剁”成小段,方便后续搜索
步骤 3:添加「向量知识库」存储
- 左侧 →Vector Store类别 → 拖一个"Qdrant"节点(Flowise 默认集成,无需额外部署)
- 连线:从
Text Splitter右侧连到Qdrant左侧 - 点击
Qdrant→ 右侧设置:Collection Name:handbook_db(自定义名字,代表这个知识库叫“手册库”)Embedding Model:text-embedding-ada-002(如果你用的是 OpenAI API)- 但注意!你用的是本地 vLLM 镜像 → 这里选
sentence-transformers/all-MiniLM-L6-v2(已内置,轻量高效)
- 这一步把切好的文本段,转成数学向量,存进“智能索引库”
步骤 4:添加「大模型大脑」
- 左侧 →LLM类别 → 拖一个"Ollama"或"vLLM"节点(你镜像已预装 vLLM,选它)
- 连线:从
Qdrant右侧连到vLLM左侧 - 点击
vLLM→ 右侧设置:Model Name:qwen2:7b(或你镜像中实际预装的模型名,如phi3:3.8b,可在终端docker logs flowise查看加载日志)Temperature:0.3(降低随机性,回答更稳定)
- 这是真正“思考”的部分,负责理解问题、整合检索结果、生成自然语言回答
步骤 5:添加「用户提问」和「最终输出」
- 左侧 →Input/Output类别 → 拖一个"Chat Input"节点(放在画布最左)
- 连线:从
Chat Input连到vLLM左侧(注意:不是连到 Qdrant!这是提问入口) - 再拖一个"Chat Output"节点(放在
vLLM右侧) - 连线:从
vLLM右侧连到Chat Output左侧 - 至此,你已搭出完整闭环:用户提问 → 检索知识库 → 大模型整合回答 → 返回结果
最终连线应呈「工」字形:
Chat Input→vLLM←Qdrant←Text Splitter←File Upload
(vLLM同时接收“问题”和“检索结果”两个输入)
3.3 保存并运行(1 分钟)
- 点击右上角"Save Flow"→ 输入名称,如
员工手册问答→ 点击保存 - 点击右上角"Deploy"(绿色按钮)→ 等待状态变为"Deployed"
- 点击右上角"Chat"图标(对话气泡)→ 进入测试界面
现在,点击左下角"Upload File",选择你的 PDF → 等待进度条走完(首次上传会索引,1–2 分钟)→ 在输入框输入:
“试用期是多久?”或“离职需要提前几天申请?”
几秒后,答案就会出现在对话框里,并附带引用来源(第几页、哪一段)。你刚刚,亲手造出了一个专属知识机器人。
4. 进阶技巧:3 个让工作流更聪明的小设置
刚才是“能用”,现在教你“用得更好”。以下设置全在图形界面里点点鼠标就能完成,无需代码。
4.1 让回答更精准:加一个「检索增强」开关
默认情况下,Qdrant 会返回最相似的 4 段文本。但有时太多反而干扰大模型。
→ 点击Qdrant节点 → 右侧找到Top K→ 改为2
→ 再测试提问,你会发现回答更聚焦、更少“车轱辘话”。
4.2 让提问更自然:加一段「系统提示词」
大模型容易答偏题。加一句指令,它就懂你要什么。
→ 左侧 →Prompt类别 → 拖一个"System Message"节点
→ 插在Chat Input和vLLM之间(即:Chat Input→System Message→vLLM)
→ 点击System Message→ 右侧Message栏输入:
你是一个严谨的HR助手,只根据我提供的《员工手册》内容回答问题。如果手册中没有明确信息,必须回答“手册中未提及”,禁止编造。这相当于给 AI 套上“紧箍咒”,回答质量立竿见影。
4.3 让流程可复用:一键导出为 API
做好一个工作流,团队其他人都想用?
→ 点击工作流右上角⋯ → Export Flow→ 选择JSON
→ 复制这段 JSON,交给开发同事,他们可以用几行代码调用:
import requests response = requests.post( "http://localhost:3000/api/v1/prediction/your-flow-id", json={"question": "年假怎么休?"} ) print(response.json()["text"])你拖出来的流程,瞬间变成后台可调用的服务。
5. 常见问题速查:新手卡住?看这里
我们整理了 90% 新手第一次实操会遇到的问题,按症状找解法:
5.1 启动失败 / 页面打不开
- 现象:浏览器显示
Unable to connect或This site can’t be reached - 检查:
- 终端执行
docker ps,确认flowise容器状态是Up(不是Exited) - 执行
docker logs flowise | tail -20,看最后几行是否有Server is running on http://localhost:3000 - 如果报
port already in use,换端口:把启动命令中的3000:3000改成3001:3000,然后访问http://localhost:3001
- 终端执行
5.2 上传 PDF 后没反应 / 卡在“Processing”
- 原因:文档过大(>50MB)或含大量扫描图片(Flowise 当前不支持 OCR)
- 解法:
- 先用 Adobe Acrobat 或在线工具(如 ilovepdf.com)将 PDF另存为“优化的 PDF”(减小体积)
- 或用
pdftotext your.pdf -命令确认能否提取文字(若返回空,说明是图片 PDF,需先 OCR)
5.3 提问后回答驴唇不对马嘴
- 优先检查:
System Message是否启用?提示词是否清晰?Qdrant的Embedding Model是否和你镜像实际支持的一致?(vLLM 镜像通常用all-MiniLM-L6-v2,别误选 OpenAI 模型)vLLM节点的Model Name是否拼写正确?(大小写敏感,如qwen2:7b不是Qwen2:7b)
5.4 想换别的模型,但下拉菜单里没有?
- Flowise 支持动态加载模型,但需先在服务器配置。
- 临时解法:用你镜像已预装的模型(如
phi3:3.8b,qwen2:7b,gemma2:2b),它们对中文问答足够友好,且响应快。 - 长期解法:参考镜像文档,在
/app/Flowise/packages/server/.env中添加OLLAMA_BASE_URL=http://host.docker.internal:11434(若你同时运行 Ollama)。
6. 总结:你已经掌握了什么?下一步可以做什么?
6.1 回顾:这 15 分钟,你亲手完成了
- 用一行 Docker 命令,启动了一个本地 AI 应用平台
- 通过 5 个拖拽节点,搭建出工业级 RAG 问答流程
- 上传真实 PDF,实现“问文档、得答案”的闭环体验
- 学会 3 个关键调优技巧:控制检索数量、注入系统指令、导出 API 接口
你不再是一个“只能用别人做好的 AI 工具”的用户,而是一个能自主组装、调试、交付 AI 能力的实践者。
6.2 下一步,试试这些真实场景
- 销售支持:把产品说明书、竞品对比表、FAQ 上传,让销售随时查参数、生成对比话术
- IT 运维:上传内部运维手册、错误代码大全,新同事提问“502 错误怎么解?”,秒回排查步骤
- 学习助手:把课程 PDF、论文、笔记上传,问“Transformer 的注意力机制怎么计算?”,它定位原文并解释
Flowise 的 Marketplace(市场)里已有 100+ 现成模板,比如「网页爬虫+问答」、「SQL 自然语言查询」、「Zapier 自动化连接」,你都可以一键安装,再按自己需求微调——这才是真正的“站在巨人肩膀上创新”。
最后送你一句大实话:AI 工具的价值,不在于多炫酷,而在于多省事。当你能把一个重复性知识查询任务,从“翻文档 10 分钟”变成“提问 3 秒得到答案”,你就已经赢了。
现在,关掉这篇教程,打开你的 Flowise,上传第一个文档,问出第一个问题吧。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。