news 2026/5/8 21:27:29

本地部署 AI 大模型保姆级教程:Ollama 安装、模型下载与终端实战全流程

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
本地部署 AI 大模型保姆级教程:Ollama 安装、模型下载与终端实战全流程

前言

最近我在本地部署大模型时选择了 Ollama。Ollama 的优点是安装简单、命令清晰、模型管理方便,非常适合新手快速体验本地大语言模型。

但是我在安装过程中踩了一个很典型的坑:

我明明把 Ollama 安装到了 E 盘,结果模型还是下载到了 C 盘。

所以这篇文章不仅会讲 Ollama 怎么安装、怎么运行模型,还会重点讲清楚:

  • Ollama 软件安装位置怎么改
  • 模型下载位置怎么改
  • 为什么模型会默认进 C 盘
  • 如何把 Ollama 加入 Path
  • 如何检查模型是否真的下载成功

如果你也不想让大模型占满 C 盘,这篇文章建议认真看完。


一、Ollama 是什么?

Ollama 是一个可以在本地运行大语言模型的工具。

简单来说,Ollama 就像是一个“本地大模型运行器”。它可以帮我们下载模型、管理模型,并在本地电脑上运行模型。安装好 Ollama 后,我们只需要通过几条命令,就可以在终端里和 Qwen、Llama、DeepSeek 等开源大模型进行对话。

通过 Ollama,我们可以在自己的电脑上运行很多开源模型,例如 Qwen、Llama、DeepSeek、Gemma、Mistral、Phi 等。

本地运行大模型的好处是:

  • 数据更私密
  • 不依赖在线 API
  • 下载完成后可以本地运行
  • 适合学习大模型部署和调用
  • 可以接入 Python、Java、前端项目等应用

二、下载 Ollama 安装包

Ollama 官网地址:

https://ollama.com

进入官网后,根据自己的系统下载对应版本。

我这里使用的是 Windows 版本。


三、把 Ollama 软件安装到 E 盘

默认情况下,Ollama 会安装到用户目录。如果你不想安装到 C 盘,可以手动指定安装目录。

我这里的目标安装目录是:

E:\ollama

先在 E 盘创建一个文件夹:

E:\ollama

建议路径不要使用中文,避免后续出现奇怪的问题。

然后把下载好的安装包放到这个目录里,例如:

E:\ollama\OllamaSetup.exe

在文件资源管理器地址栏输入:

cmd

回车后会直接在当前目录打开命令行窗口。

然后执行:

OllamaSetup.exe /DIR=E:\ollama

如果路径中有空格,建议加双引号:

OllamaSetup.exe /DIR="E:\ollama"

等待安装程序启动并完成安装即可。


四、重要避坑:安装目录不等于模型目录

这是我踩过的坑,也是这篇文章最想提醒大家的地方。

很多人以为执行了:

OllamaSetup.exe /DIR=E:\ollama

就代表 Ollama 下载的大模型也会保存到:

E:\ollama

其实不是。

这个命令只改变了 Ollama 软件本体的安装位置。

也就是说:

/DIR=E:\ollama

控制的是 Ollama 程序安装在哪里。

但是大模型默认仍然可能下载到:

C:\Users\你的用户名\.ollama\models

例如我的电脑上就是:

C:\Users\21376\.ollama\models

这个目录下面通常会有两个文件夹:

blobs manifests

其中:

blobs 存放模型的大文件 manifests 存放模型索引信息

如果只看到 blobs,但是 manifests 是空的,那么 ollama list 可能识别不到模型。


五、把模型保存位置改到 E 盘

如果不想让模型下载到 C 盘,需要设置环境变量:

OLLAMA_MODELS

例如我希望模型统一保存到:

E:\ollama\models

先创建目录:

mkdir E:\ollama\models

然后执行:

setx OLLAMA_MODELS "E:\ollama\models"

执行完成后,关闭当前 CMD 窗口,重新打开一个新的 CMD。

验证环境变量是否生效:

echo %OLLAMA_MODELS%

如果输出:

E:\ollama\models

说明配置成功。

注意:如果 Ollama 已经在后台运行,需要退出右下角托盘里的 Ollama,然后重新启动 Ollama。否则它可能还在使用旧配置。


六、把 Ollama 加入系统 Path

我安装到 E 盘后,还遇到了另一个问题。

在 C:\Users\用户名> 下执行:

ollama list

提示:

'ollama' 不是内部或外部命令,也不是可运行的程序或批处理文件。

这说明 Windows 找不到 ollama.exe,也就是 Ollama 没有加入 Path。

临时解决方法是直接使用完整路径:

E:\ollama\ollama.exe list

或者:

E:\ollama\ollama.exe run qwen2.5:1.5b

但这样每次都要写完整路径,比较麻烦。

推荐永久解决方式:

此电脑 -> 属性 -> 高级系统设置 -> 环境变量

找到用户变量或系统变量中的:

Path

点击编辑,新增一项:

E:\ollama

保存后,关闭 CMD,重新打开。

验证:

ollama --version

如果能看到版本号,说明配置成功。

以后就可以在任意目录执行:

ollama list ollama run qwen2.5:1.5b


七、下载并运行 Qwen 模型

配置好模型目录和 Path 后,就可以运行模型了。

例如运行 Qwen2.5 1.5B:

ollama run qwen2.5:1.5b

第一次运行时,如果本地没有这个模型,Ollama 会自动下载。

终端中会看到类似信息:

pulling manifest pulling 183715c43589: 100% 986 MB verifying sha256 digest writing manifest success

看到 success 就表示模型下载完成。

随后会进入对话模式:

>>> Send a message

可以输入:

你好,请介绍一下你自己

退出对话:

/bye


八、查看已下载模型

查看当前 Ollama 能识别到的模型:

ollama list

如果模型下载成功,会看到类似:

NAME ID SIZE MODIFIED qwen2.5:1.5b xxxxxxxx 986 MB ...

如果只显示表头:

NAME ID SIZE MODIFIED

说明当前 Ollama 模型目录里没有可识别的模型。

这时要检查当前模型目录:

echo %OLLAMA_MODELS%

确认当前模型目录是不是你想要的路径。

如果没有配置 OLLAMA_MODELS,模型默认可能会保存在:

C:\Users\你的用户名\.ollama\models


九、常用 Ollama 命令

查看模型列表:

ollama list

运行模型:

ollama run qwen2.5:1.5b

只下载模型,不进入对话:

ollama pull qwen2.5:1.5b

删除模型:

ollama rm qwen2.5:1.5b

查看正在运行的模型:

ollama ps

查看模型信息:

ollama show qwen2.5:1.5b

查看 Ollama 版本:

ollama --version


十、我踩过的坑总结

1. 在 E 盘运行命令,不代表模型下载到 E 盘

例如:

E:\ollama>ollama run qwen2.5:1.5b

这只能说明当前命令是在 E:\ollama 目录执行的。

模型到底保存在哪里,取决于:

OLLAMA_MODELS

如果没有配置,默认可能还是 C 盘用户目录。


2. 软件安装位置和模型保存位置是两回事

OllamaSetup.exe /DIR=E:\ollama

控制软件安装位置。

OLLAMA_MODELS=E:\ollama\models

控制模型保存位置。

Path 加入 E:\ollama

控制能不能在任意目录使用 ollama 命令。

这三个概念一定要分清楚。


3. ModelScope 下载的模型不能直接当作 Ollama 模型运行

我之前在 E 盘有一个目录:

E:\qwen2.5\Qwen2.5-0.5B-Instruct

这个大概率是通过 ModelScope 下载的原始模型文件。

但是我运行的是:

ollama run qwen2.5:1.5b

这两个不是同一个东西。

Ollama 下载的是它自己管理的模型格式和索引结构,通常在:

models\blobs models\manifests

所以即使你本地有 ModelScope 下载的模型,Ollama 也不会自动识别成:

qwen2.5:1.5b


十一、推荐新手选择什么模型?

如果电脑配置一般,建议先从小模型开始。

例如:

ollama run qwen2.5:0.5b ollama run qwen2.5:1.5b ollama run llama3.2:1b ollama run deepseek-r1:1.5b

如果内存较大,可以尝试:

ollama run qwen2.5:7b ollama run llama3.1:8b

简单理解:

0.5B / 1.5B:占用较小,适合新手测试 7B / 8B:效果更好,但更吃内存和显卡 14B 以上:配置要求更高

新手建议先跑通小模型,再尝试大模型。


十二、完整推荐流程

如果你想把 Ollama 和模型都放到 E 盘,可以按照下面流程来:

1. 创建安装目录

mkdir E:\ollama

2. 安装 Ollama 到 E 盘

进入安装包所在目录后执行:

OllamaSetup.exe /DIR=E:\ollama

3. 创建模型目录

mkdir E:\ollama\models

4. 设置模型目录环境变量

setx OLLAMA_MODELS "E:\ollama\models"

5. 把 E:\ollama 加入 Path

环境变量 Path 中新增:

E:\ollama

6. 重新打开 CMD 验证

echo %OLLAMA_MODELS% ollama --version

7. 下载并运行模型

ollama run qwen2.5:1.5b

8. 查看模型

ollama list


十三、最后总结

Ollama 是一个非常适合新手学习本地大模型部署的工具。安装简单,命令清晰,下载模型后就可以直接在本地对话。

但是在 Windows 上使用时,一定要注意三个路径问题:

1. /DIR=E:\ollama 控制 Ollama 软件安装位置 2. OLLAMA_MODELS=E:\ollama\models 控制模型下载和保存位置 3. Path 添加 E:\ollama 控制能不能在任意目录使用 ollama 命令

如果你不想让模型占满 C 盘,千万不要只改 /DIR,一定要同时配置:

setx OLLAMA_MODELS "E:\ollama\models"

这就是我本次安装 Ollama 最大的经验教训。

希望这篇文章能帮你少踩坑,顺利跑通自己的第一个本地大模型。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/8 21:27:28

气凝胶+玄武岩复合毡 | 石化管道场景的经济账:投资回收期2-5年,减碳数百吨/年

三组核心数据:投资回收期2-5年、年碳减排数百吨、使用寿命15-20年。这是宝业绿色建筑与双碳团队在走访会员企业后,对“气凝胶玄武岩纤维复合毡”在工业保温防腐场景中给出的经济账结论。以下为该团队2026年5月调研报告的核心内容整理。一、这个材料组合是…

作者头像 李华
网站建设 2026/5/8 21:26:38

wkhtmltopdf对page=break-after:always属性支持的支持

wkhtmltopdf分页问题深度解析:page-break-after失效原因及解决方案问题背景在使用wkhtmltopdf生成PDF文档时,许多开发者都会遇到一个令人困惑的问题:CSS的page-break-after: always属性为什么不生效? 这个问题在需要精确控制分页位…

作者头像 李华
网站建设 2026/5/8 21:26:38

基于Mistral 7B与Ollama的本地知识图谱构建全流程解析

1. 项目概述:从文本到知识图谱的本地化构建最近在折腾一个挺有意思的项目,核心目标是把一堆零散的文本,比如一本书、一份报告或者一堆研究论文,转化成一个结构化的、可视化的知识图谱。这玩意儿本质上是一个语义网络,能…

作者头像 李华
网站建设 2026/5/8 21:20:31

FPGA硬件/软件协同设计:从C语言到硬件加速器

1. FPGA硬件/软件协同设计概述硬件/软件协同设计(Hardware/Software Codesign)是现代嵌入式系统开发中的关键技术突破。它从根本上改变了传统"先硬件后软件"的开发模式,通过将计算任务在处理器和硬件加速器之间智能分配&#xff0c…

作者头像 李华
网站建设 2026/5/8 21:11:33

(初阶) 从零开始:Tushare环境配置与基础数据获取

去年接触到量化投资这个概念时,我面对的第一个问题不是策略怎么写、回测怎么做,而是——数据从哪来?市面上主流的金融数据终端动辄上万一年,对个人量化爱好者来说实在吃不消。 幸运的是,我遇到了Tushare。这是一个完全…

作者头像 李华