文章详细介绍了基于Dify环境开发五大智能体应用的实战教程,包括Tavily联网搜索、Flux古诗词图像生成、智能客服系统、文档分析助手,以及Coze和Dify智能体的API服务部署,为开发者提供了从开发到部署的完整解决方案。
一、利用Tavily Search实现LLM联网搜索
TO DO:LLM联网搜索
用户输入问题,AI提取关键字,使用Bing搜索,并进行总结
Step1,创建对话工作流(此处也可以用工作流,对话流相比工作流默认项更多一些)
Step2,准备Tavily Search工具
Tavily Search API 是一款强大的搜索工具,支持文本和图像搜索,具备多语言、高级筛选等功能。它专为开发者设计,可快速集成到应用中
申请TavilySearch API Key
进入 https://tavily.com/ 用github账号登录申请API-KEY
在Dify中安装Tavily工具,安装完成后选Tavily Search
- 对Tavily Search用第1步获取到的API-KEY进行授权
Step3: 配置对话工作流参数
- 开始节点:对话流用户输入节点已默认配置
- LLM节点(作用:对用户的问题提取关键词):
模型选熟悉的对话模型,如qwen3-max
系统提示词:对用户的问题,提取关键字,多个关键字用空格隔开
用户提示词:对话流中用户提示词已默认填写
- Tavily Search节点(作用:利用上面大模型节点的输出搜索网页):
查询变量:设置为前一个节点LLM输出的text
- LLM 2节点(根据Tavily Search的输出内容进行总结整理):
系统提示词:对网上搜索到的内容改进行总结整理
用户提示词:Tavily Search {x} text
- 结束节点配置
输出变量output设置为LLM 2节点的输出text
设置完成,效果预览如下:
二、利用文生图工具Flux搭建古诗词工作流
这个例子前之前在Coze中的实操例子一样,这次我们只是在Dify中来实现一下
TO DO:
搭建古诗词Agent 用户输入一句古诗,AI制作对应的图像
Step1,创建BOT
Step2,创建工作流(工作流:用于规划和实现复杂功能逻辑的工具,可以通过不同的任务节点来设计复杂的多步骤任务)
Step3:准备AI绘图工具
Dify 本身并不直接提供绘图工具,但可以通过外部工具来实现绘图功能。
常见的AI 绘图工具包括:
- Stable Diffusion:一个开源的AI 绘图模型,可以通过Dify调用生成高质量的图像。
- Flux:由Black Forest Labs 开发的 AI 绘图模型,支持通过Dify调用生成图像。
- DALL-E:Dify 提供的第一方工具之一,可以通过自然语言输入生成高质量图片。
本次CASE使用自定义绘图工具
SiliconFlow:通过 SiliconCloud 提供的 API,可以在Dify中调用Flux 或Stable Diffusion 绘图模型
SiliconFlow 是由硅基流动提供的基于开源模型的高性价比GenAI 服务,这样就可以在Dify中调用Flux 和Stable Diffusion 等绘图模型
1)安装SiliconFlow工具,点击LLM 2节点的-> 工具 ->在Marketplace中查找更多 ->搜索“SiliconFlow工具” ->安装,安装好后,可以看到SiliconFlow下面有5个ACTION,其中就包括 Flux 和 Stable Diffusion。
- 申请SiliconCloudAPI Key ,点击上图的API Key授权配置,按照指引去申请API Key,并在Dify中配置API Key
Step4:配置工作流
用户输入节点,接收用户输入。添加输入字段,变量名称:input,显示名称:input (Dify中输入变量需要手动定义,Coze中是自带的)
添加第一个大模型节点,基于用户输入的古诗词描绘画面。模型选一个靠谱的,我选的“qwen3-max”;SYSTEM提示词:“基于用户的古诗词描绘一幅画面”;添加USER提示词(点击两下{x},或输入"/")选用户输入的input。
添加第2个大模型节点,将上一节点的输出翻一成英文(因为后面用的文生图工具是国外的软件)。选择模型,填入系统提示词:“翻译成英文,前面加上acient china”,添加用户提示词:选LLM节点的{x}text。
添加FLUX工具,一个文生图工具。点击LLM2节点的“+” -> 工具 ->全部工具-> SiliconFlow -> Flux;输入变量提示词为LLM2/{x}text
添加输出节点,接收输出。添加输出变量output:选FLUX的{x}files。
完成后,点击测试运行,input“离离原上草”,在这个过程中可以追踪每个节点的输入输出情况。
三、利用分类器与知识库搭建智能客服ChatFlow
TO DO:智能客服ChatFlow
设置3个分类:营销专员+ 投诉专员+ 其他
- 营销专员:配置证券知识库,实现对证券产品介绍、交易规则等高频问题的自动化解答;
- 投诉专员:配置了用户行为数据,用户标签,方便进一步查找关于用户行为、资产等情况,给用户提供产品使 用中的问题解答
- 其他问题:抱歉,这些问题我无法回答
Step1,添加节点=> 问题分类器
选择模型:qwen-flash,添加以下三个分类
分类1:营销咨询,证券知识
分类2:投诉处理,产品使用不成功
分类3:其他问题
Step2,构建营销咨询分支
1)添加知识检索节点,知识检索根据知识库的知识,结合用户问题整理知识(针对分类1,设置下游节点)
配置证券知识库(该知识库需要先进行创建,再添加) ,我本地有以下几个文件,因为我本地搭建的Dify不支持上传.doc文件,我将文件另存为了.docx文件
创建支持库:点击“知识库” ->创建知识库->导入已有文本,按照指引创建知识库即可,知识库设置可以按默认设置。
知识检索设置:在知识检索节点中添加知识库,查询变量: 开始中的query
2)添加大模型节点LLM2,根据知识检索节点的输出整理问题回答的内容。选择模型;上下文设置为知识检索结果;系统提示词“基于知识库回答用户问题,以下是知识库内容{{上下文}}”;用户提示词“用户输入/{x}query”
3)添加直接回复节点,回复内容设置为上一大模型节点的输出text
Step3,构建投诉处理分支
1)添加大模型节点LLM3,该节点主要从用户投诉问题中提取信息,将投诉信息进行格式化输出。节点设置:选择大模型;设置系统提示词;设置用户提示词:用户输入/{x}query
2)添加知识检索节点,构建用户行为知识。我本地有以下两个文件,将创建知识库(创建知识库时检索设置为“混合检索”),并在知识检索节点添加知识库;查询变量设为“用户输入/{x}query”
3)添加大模型节点LLM4,该节点结合用户输入、知识检索整理回复用户的投诉问题。节点设置:选择模型;上下文设置为知识检索2的检索结果;设置用户提示词,包括角定位,处理投诉问题的一些要求等;设置用户提示词为“用户输入/{x}query”
4)添加直接回复节点,回复内容设置为上一大模型节点的输出text
Step4,构建其他问题处理分支,直接添加一个直接回复节点即可,填写直接回复内容。
预览整体效果:
测试完成后,点击发布后,点击左侧头像旁的小图标,看到一个Web App 的公开访问URL,复制URL在浏览器中访问,可以看到一个服务页面。
四、利用MinerU搭建智能文档分析助手
TO DO:智能文档分析助手
用户上传一份包含复杂图表、公式和多栏排版的科研论文PDF,望针对论文中的内容进行提问。
Step1. 在 Dify 中创建应用,比如:智能文档分析助手
Step2. 配置用户输入节点,节点默认带了一个userinput.files的参数;加一个input参数;再添加一个单文件参数file
Step3. 集成MinerU 作为工具,用于解析用户输入的文件,对文件进行内容提取。
1)在Dify中下载MinerU工具,点击用户输入节点的
-> 工具 ->在Marketplace中查找更多 ->搜索“MinerU” ->安装。(需安装0.2.1低版本,高版本运行可能会报错)
2)安装完成后,在工作流中添加MinerU的Parse File,然后进行授权, Base URL:http://mineru.net;令牌token获取https://mineru.net/apiManage/token(需要用户注册,填写一些信息,再申请API)
3)配置Parse File插件。配置输入变量file为用户输入的 file
Step4. 添加并配置大模型节点,基于MinerU 处理后的高质量文本回答用户问题。选择模型;配置系统提示词,让模型基于上传的论文回答问题;配置用户提示词“用户输入/{x}input”
Step5. 添加并配置输出节点,添加输出变量output:LLM/text
完成后的工作流如下图所示:
五、Coze与Dify的Agent API的使用
1、Coze平台Agent API的使用
我们可以将在Coze平台搭建的智能体以API的形式发布,并集成在其他应用中。
cozepy 是 Coze 平台官方提供的Python SDK,用于与Coze 智能体进行API 交互。它支持同步和异步调用、流式 输出、分页查询等功能。
Step1. 获取API Token
访问https://www.coze.cn/open/oauth/pats 登录账户,创建个人访问令牌(Personal Access Token) ,设置适当的权限和过期时间。
Step2. 将我们之前在Coze中做的应用以API的形式进行发布
Step3. 对智能体进行Playground调试
发布完成后点击Playground调试,可以试运行,也可以查看API调用参数,后面通过代码调用主要需要下面的这个token和bot_id。
Step4. 通过AI编程写一个Coze API接口调用的客户端,填入token及智能体id,即可运行代码。
在配置文件中配置COZE_API_TOKEN和 COZE_BOT_ID
2、Dify平台Agent API的使用
Dify API使用相比Coze 要更简单一些。
Step1, 获取智能体URL及API_KEY
在Dify中打开一个我们刚才创建的智能体,点击访问API;创建API密钥
Step2,用AI编程生成一个workflow及一个chatflow的调用代码
测试效果
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!