一、Ollama官网
ollama官网
搜索选择对应的大模型,根据机器规格选择合适的大模型
二、本地运行
- 新建如下环境变量:
变量名:OLLAMA_MODELS 变量值: D:\AiProject\AIModel变量名:OLLAMA_HOST 变量值:127.0.0.1变量名:OLLAMA_PORT 变量值:11434变量名:OLLAMA_ORIGINS 变量值:*- 设置防火墙如下:默认只允许本机访问.
- 浏览器访问
如果访问失败,右下角查看ollama看服务是否启动。
http://localhost:11438/
三、安装DeepSeek大模型
- 启动:ollama
ollama serve
- 运行 r1 1.5b模型
CMD新开一个窗口运行一下
ollama run deepseek-r1:1.5b
退出当前模型
再次运行模型
ollama run deepseek-r1:1.5b