1. 简介
本文主要介绍基于 spring ai 自定义搭建 mcp 服务端和客户端,主要场景是:
基于本地的mcp服务让飞书机器人跟场景回答不同的问题
实现效果如下
最后附了源码链接.整体代码非常简单,容易上手。
2.概念
2.1 什么是 AI MCP?
MCP(Model Context Protocol)是一种 标准化协议,用来解决一个长期痛点:
👉如何让 AI“安全、可控、标准化地”调用外部工具 / 系统能力?
它的核心目标不是“让 AI 更聪明”,而是:
- 让AI 能调用真实系统
- 同时避免 AI 乱编、乱连、乱访问
- 并且工具接入方式统一
2.2 MCP 解决了什么问题?
1️⃣ 传统 Function Call 的问题
以 OpenAI Function Calling / Tool Calling 为例:
- 工具定义写死在 Prompt 或代码里
- 每个 AI 框架一套接口
- 权限 / 生命周期 / 连接管理全靠业务自己写
- 工具多了以后极难维护
👉 在真实系统里会变成:
- Prompt 很长
- Tool 定义重复
- 不同 AI 模型不可复用
2️⃣ MCP 的解决思路
MCP 把 工具变成一个标准化的 Server:
AI Model | | MCP 协议 | MCP Client ────── MCP Server ├─ 查数据库 ├─ 调内部系统 ├─ 查文件 ├─ 调 HTTP APIAI 不直接接触工具实现,只通过 MCP 协议:
- 发现工具
- 调用工具
- 获取结构化结果
3. 工程结构
主要分为2个模块,mcp-server和mcp-client, mcp-client里面通过java -jar的形式运行 mcp 服务端,在mcp-client最终结合 AI 以及飞书机器人的集成实现消息的回复.
4. 相关源码介绍
4.1 mcp 服务端
服务端非常简单,例如保留一个天气的服务,只需要在方法上加入org.springframework.ai.tool.annotation.Tool;注解即可
importio.kings1990.mcp.mcpserver.enums.WeatherType;importio.kings1990.mcp.mcpserver.record.WeatherRequest;importio.kings1990.mcp.mcpserver.record.WeatherResult;importlombok.extern.slf4j.Slf4j;importorg.springframework.ai.tool.annotation.Tool;importorg.springframework.ai.tool.annotation.ToolParam;importorg.springframework.stereotype.Service;@Service@Slf4jpublicclassWeatherService{@Tool(name="getWeather",description="查询指定城市的天气")publicWeatherResultgetWeather(@ToolParam(description="请求参数")WeatherRequestreq){log.info("MCP Tool getWeather called, city={}",req.city());returnnewWeatherResult(req.city(),WeatherType.SUNNY,"25°C","°C","mcp:getWeather");}}4.2 mcp客户端
4.2.1让 AI 集成 ToolCallbacks
@ConfigurationpublicclassAiConfig{@BeanpublicChatClientchatClient(ChatClient.Builderbuilder,List<McpSyncClient>mcpSyncClients){returnbuilder.defaultSystem("你是一个AI助手,必须调用工具 kings-spring-ai-mcp-tools 下的方法,如果工具不可用,就明确说明无法调用工具,不要编造。").defaultToolCallbacks(SyncMcpToolCallbackProvider.builder().mcpClients(mcpSyncClients).build()).build();}}4.2.2基于飞书机器人的长链接集成,实现消息的自动回复
importcn.hutool.core.thread.ThreadUtil;importcom.lark.oapi.event.EventDispatcher;importcom.lark.oapi.service.im.ImService;importcom.lark.oapi.service.im.v1.model.P2MessageReceiveV1;importcom.lark.oapi.ws.Client;importjakarta.annotation.Resource;importorg.springframework.beans.factory.DisposableBean;importorg.springframework.boot.CommandLineRunner;importorg.springframework.stereotype.Component;@ComponentpublicclassLarkWsListenerimplementsCommandLineRunner,DisposableBean{@ResourceprivateLarkBotServicebotService;@ResourceprivateClient.BuilderlarkWsBuilder;@Overridepublicvoidrun(String...args){//verificationToken和 encryptionKey 可选,用于验证和解密事件EventDispatcherhandler=EventDispatcher.newBuilder("","").onP2MessageReceiveV1(newImService.P2MessageReceiveV1Handler(){@Overridepublicvoidhandle(P2MessageReceiveV1event)throwsException{// 1) messageId 用于 replyStringmessageId=event.getEvent().getMessage().getMessageId();// 2) content 是 JSON 字符串,需要解析出文本StringcontentJson=event.getEvent().getMessage().getContent();System.err.println("收到消息: "+contentJson);StringuserText=LarkMsgParser.extractText(contentJson);ThreadUtil.execAsync(()->{botService.onUserMessage(messageId,userText);});}}).build();// 建议把 appId/appSecret 放配置文件ClientwsClient=larkWsBuilder.eventHandler(handler).build();wsClient.start();}@Overridepublicvoiddestroy()throwsException{}}4.2.3 AI Api-Key 植入
我这边使用 zhipu ai. 这边可以获取api-key.
加入依赖
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-zhipuai</artifactId></dependency>并且在配置中配置 api-key
spring: ai: zhipuai: api-key: your_api_key_here chat: options: model: glm-4.65.启动
直接运行mcp-client主程序,查看飞书机器人是否注册成功
connected to wss://msg-frontier.feishu.cn/启动成功后在飞书应用里输入例如北京,等待机器人回复
6.源码
github 仓库. 可以 star 查看后续更新
Fast Request是一个类似于 Postman 的 IDEA 插件。它是一个强大的 restful api 工具包插件,可以根据已有的方法帮助您快速生成 url 和 params。Restful Fast Request = API调试工具 + API管理工具 + API搜索工具。 它有一个漂亮的界面来完成请求、检查服务器响应、存储你的 api 请求和导出 api 请求。插件帮助你在 IDEA 界面内更快更高效得调试你的 API。