news 2026/3/21 17:52:22

轻松入门SpringAI-SpringAI调用Ollama

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
轻松入门SpringAI-SpringAI调用Ollama

轻松入门 Spring AI 调用 Ollama
(2025-2026 最新最实用写法)

目前使用 Spring AI + Ollama 最推荐的几种组合方式(按推荐顺序):

排名方式优点缺点/限制适合场景推荐度
1Spring AI Ollama ChatClient配置最少、写法最自然、生态最好需要 Ollama 已经在运行绝大多数日常开发★★★★★
2使用 OllamaChatModel 手动创建更灵活,可精细控制参数代码稍微多一点需要特殊参数或实验★★★★
3AiServices + Ollama适合做工具调用/结构化输出/Agent学习曲线稍高中高级用法★★★★
4直接用 Ollama Java 官方客户端不依赖 Spring AI,完全独立失去 Spring AI 所有高级抽象极致轻量/非 Spring 项目★★

最推荐写法(99% 场景都够用)

1. 依赖(使用最新稳定版)
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId><version>1.0.0-M6 或 1.0.0.RELEASE(看你用的 spring boot 版本)</version></dependency><!-- 如果你用的是快照版或 milestone,可能需要添加仓库 -->
2. application.yml 最简配置
spring:ai:ollama:base-url:http://localhost:11434# 默认就是这个,几乎不用改chat:options:model:qwen2.5:7b-instruct# ← 改这里就切换模型# 常用推荐模型(2026年初):# qwen2.5:7b-instruct# deepseek-r1:7b# llama3.2:3b# phi4:14b# gemma2:9btemperature:0.75top-p:0.9max-tokens:4096
3. 最常用代码模板(ChatClient 方式)
@RestController@RequestMapping("/ollama")@RequiredArgsConstructorpublicclassOllamaSimpleController{privatefinalChatClientchatClient;// Spring AI 自动注入// 1. 普通调用@GetMapping("/chat")publicStringsimpleChat(@RequestParamStringmsg){returnchatClient.prompt().user(msg).call().content();}// 2. 流式输出(前端打字机效果)@GetMapping(value="/stream",produces=MediaType.TEXT_EVENT_STREAM_VALUE)publicFlux<String>streamChat(@RequestParamStringmsg){returnchatClient.prompt().user(msg).stream().content();}// 3. 带系统提示 + 记忆(最实用组合)privatefinalChatMemorychatMemory=newMessageWindowChatMemory(10);@GetMapping("/memory")publicStringchatWithMemory(@RequestParamStringsessionId,@RequestParamStringmessage){returnchatClient.prompt().system(""" 你是一位说话很幽默、接地气、喜欢用表情的资深程序员 用中文回答,尽量使用 markdown 格式 """).user(message).advisors(MessageChatMemoryAdvisor.builder().chatMemory(chatMemory).sessionId(sessionId).build()).call().content();}}

快速上手检查清单(按顺序做)

步骤命令/操作预期结果
  1. 安装并启动 Ollama |ollama serve| 看到 http://localhost:11434
  2. 拉取一个常用模型 |ollama pull qwen2.5:7b-instruct| 模型下载完成
  3. 命令行简单测试 |ollama run qwen2.5:7b-instruct| 可以正常对话
  4. 启动 Spring Boot 项目 | 正常启动 | 无报错
  5. 浏览器访问 |/ollama/chat?msg=你好啊| 得到中文回答
  6. 测试流式 |/ollama/stream?msg=讲个程序员笑话| 看到逐字出现效果

常见问题速查表(2026年初常见坑)

问题原因解决方案
连接超时/拒绝连接Ollama 没启动先运行ollama serve
模型找不到模型名写错了ollama list查看已下载模型名
中文回答很差/乱码用了不擅长中文的模型换 qwen2.5 / deepseek-r1 / glm4 等
流式输出不工作模型本身不支持 streaming部分小模型不支持,换大一点的模型
显存爆了/启动很慢模型太大,显卡不够换 3b/7b 量级模型,或加--num-gpu 0只用 CPU

一句话总结目前(2026年1月)最舒服的本地组合:

Spring Boot 3.3.x + Spring AI 1.0.x + Ollama + qwen2.5:7b-instruct 或 deepseek-r1:7b + ChatClient 流式 + 记忆 + 系统提示

祝你本地玩得开心,早日做出自己的小 AI 玩具~ 🚀

需要我帮你把某个特定模型(比如 deepseek-r1 / phi4 / gemma2)的配置和表现做更详细对比吗?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/15 8:32:27

计算机小程序毕设实战-基于springboot+微信小程序的服装商城的设计与实现小程序基于微信小程序的在线服装商城店铺的设计与实现【完整源码+LW+部署说明+演示视频,全bao一条龙等】

博主介绍&#xff1a;✌️码农一枚 &#xff0c;专注于大学生项目实战开发、讲解和毕业&#x1f6a2;文撰写修改等。全栈领域优质创作者&#xff0c;博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围&#xff1a;&am…

作者头像 李华
网站建设 2026/3/15 13:16:33

吐血推荐10个一键生成论文工具,专科生毕业论文必备!

吐血推荐10个一键生成论文工具&#xff0c;专科生毕业论文必备&#xff01; 专科生的论文救星&#xff0c;AI 工具如何改变你的写作方式&#xff1f; 在如今的学术环境中&#xff0c;论文写作早已不再是单纯的文字堆砌&#xff0c;而是对逻辑、结构和内容深度的综合考验。尤其是…

作者头像 李华
网站建设 2026/3/15 12:21:15

(1-2)人形机器人的发展历史、趋势与应用场景:未来趋势与行业需求

1.2 未来趋势与行业需求随着具身智能、大模型与机器人核心硬件的快速发展&#xff0c;人形机器人正从技术验证阶段迈向面向真实场景的规模化应用阶段。未来的发展趋势不仅体现在智能水平的持续提升&#xff0c;更体现在对劳动力结构、生产方式与服务形态的深刻重塑。在制造业、…

作者头像 李华
网站建设 2026/3/15 6:57:42

4. 为什么 Triton 不够了

作者&#xff1a;HOS(安全风信子) 日期&#xff1a;2026-01-17 来源平台&#xff1a;GitHub 摘要&#xff1a; 2026年&#xff0c;随着大模型规模和复杂度的急剧增长&#xff0c;传统推理框架Triton Inference Server在处理现代推理场景时逐渐显现出局限性。本文深入剖析了Trit…

作者头像 李华