news 2026/4/28 3:54:21

整个 AI 项目从本地 → 部署到服务器

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
整个 AI 项目从本地 → 部署到服务器

一、整体流程(最清晰版)

本地打包镜像 → 上传到服务器 → 服务器加载镜像 → 挂载模型目录 → 启动容器 → 运行成功

二、完整部署步骤(照着执行即可)

1.本地:把你的 AI 项目打包成 Docker 镜像(cmd->项目根目录下执行)

根目录必须要有两个文件Dockerfile和requirements.txt

Dockerfile文件

FROM python:3.10-slim WORKDIR /app COPY requirements.txt . # 清理系统源 + 只使用阿里云 RUN rm -rf /etc/apt/sources.list.d/* && \ echo "deb http://mirrors.aliyun.com/debian bookworm main contrib non-free" > /etc/apt/sources.list && \ echo "deb http://mirrors.aliyun.com/debian-security bookworm-security main contrib non-free" >> /etc/apt/sources.list && \ echo "deb http://mirrors.aliyun.com/debian bookworm-updates main contrib non-free" >> /etc/apt/sources.list && \ apt-get update --fix-missing && \ apt-get install -y ffmpeg && \ apt-get clean && \ rm -rf /var/lib/apt/lists/* # 安装 Python 依赖 RUN pip install --upgrade pip -i https://mirrors.aliyun.com/pypi/simple RUN pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple # 复制全部代码 COPY . . # 启动端口 EXPOSE 8001 # 启动命令(你自己项目的启动文件,一般是 app.py) CMD ["python", "app.py"]

requirements.txt文件

fastapi==0.135.2 uvicorn==0.42.0 pydantic==2.12.5 apscheduler==3.11.2 requests==2.32.5 urllib3==2.6.3 librosa==0.11.0 numpy==2.2.5 pydub==0.25.1 torch==2.5.0+cu124 scipy==1.15.3 soundfile==0.13.1 transformers==5.3.0 funasr==1.3.1 qwen-vl-utils==0.0.14 loguru==0.7.3

2.执行(创建镜像)

docker build --platform linux/amd64 -f Dockerfile -t ly-video-insight:1.0 .

3.下载镜像

docker save -o D:\ly-video-analysis.tar ly-video-analysis:1.1

4.上传到服务器

scp -r D:\夸克下载\vl-models\models\models ubuntu@192.168.9.34:/home/ubuntu/

5.进入Docker

sudo -i

6.docker加载镜像

docker load -i /home/ubuntu/ly-video-insight.tar

7.检查镜像

docker images

8.运行镜像

# 没有gpu运行 docker run --name ly-video-analysis -p 6006:6006 -v /home/ubuntu/models:/app/models -d ly-video-analysis:1.2 # gpu运行 docker run --name ly-video-analysis \ --gpus all \ -p 6006:6006 \ -v /home/ubuntu/models:/app/models \ -d ly-video-analysis:1.2

临时进入容器内部调试

docker run -it --entrypoint=/bin/bash -p 6006:6006 ly-video-analysis:1.3

调试好需要重新更新一下镜像

1.使用 `docker commit` 将容器转化为镜像

docker commit [容器ID或容器名称] [新镜像名称:标签] docker commit my_container my_backup_image:latest # 查看生成的镜像 docker images

2.使用 `docker save` 和 `docker load` 进行镜像迁移

docker save -o [保存路径] [镜像名称:标签] docker save -o /path/to/backup/my_backup_image.tar my_backup_image:latest 从文件恢复镜像 docker load -i [备份文件路径] docker load -i /path/to/backup/my_backup_image.tar

服务器没有Docker或者Docker没有GUP的解决方案

简单的安装Docker,不带GPU的

apt update apt install -y docker.io 重启Docker才会成功 systemctl restart docker

如果需要安装带GPU需要
1.清理所有错误的源和旧包

# 清理错误的 nvidia 源 rm -f /etc/apt/sources.list.d/nvidia-docker.list rm -f /etc/apt/sources.list.d/docker.list # 卸载冲突包 apt remove -y docker.io nvidia-docker2 nvidia-container-toolkit libnvidia-container1 apt autoremove -y

2.安装正确的 NVIDIA 容器工具包(现代版,无 apt-key 警告)

# 安装依赖 apt update apt install -y curl gpg # 添加正确的 GPG 密钥(新版方式) curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg # 添加正确的源(自动适配你的 Ubuntu 版本) curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

3.安装并配置容器工具包

apt update apt install -y nvidia-container-toolkit

4.配置 Docker 使用 NVIDIA 运行时

nvidia-ctk runtime configure --runtime=docker

5.重启 Docker(关键!)

systemctl restart docker

6.验证 GPU 是否可用(测试命令)

docker run --rm --gpus all nvidia/cuda:11.8.0-base-ubuntu22.04 nvidia-smi

出现显卡信息 = 成功

7.重新运行你的容器

docker run --name ly-video-analysis \ --gpus all \ -p 6006:6006 \ -v /home/ubuntu/models:/app/models \ -d ly-video-analysis:1.2
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 3:48:35

【Web前端】CSS(一)——基础语法与选择器

文章目录1.什么是CSS2.CSS基本语法规范3.CSS引入方式3.1 内部样式表3.2 行内样式表3.3 外部样式4.选择器的种类4.1 常见的选择器4.2 基础选择器4.2.1 标签选择器4.2.2 类选择器4.2.3 id选择器4.2.4通配符选择器4.2.5 基础选择器小结4.3 复合选择器4.3.1 后代选择器4.3.2 子选择…

作者头像 李华
网站建设 2026/4/28 3:43:24

Docker 部署 MySQL,这 10 个坑你不踩才怪(Docker 部署篇)

公关众注号:IT安装手册MySQL 避坑指南系列第②篇,共 4 篇。 上一篇讲了安装配置的 10 个坑(字符集、配置文件、用户权限),本篇聚焦 Docker 部署——这是整个系列踩坑最密集的环节。用 Docker 部署 MySQL,从…

作者头像 李华
网站建设 2026/4/28 3:42:16

百度网盘秒传脚本:3步轻松实现文件永久分享的完整指南

百度网盘秒传脚本:3步轻松实现文件永久分享的完整指南 【免费下载链接】rapid-upload-userscript-doc 秒传链接提取脚本 - 文档&教程 项目地址: https://gitcode.com/gh_mirrors/ra/rapid-upload-userscript-doc 你是否曾为百度网盘分享链接频繁失效而烦…

作者头像 李华
网站建设 2026/4/28 3:31:26

App-Agent:基于视觉感知与LLM的智能体应用自动化实战

1. 项目概述:从“App-Agent”看智能体驱动的应用自动化新范式最近在开源社区里,一个名为ngo275/app-agent的项目引起了我的注意。乍一看,这只是一个GitHub仓库名,但当你深入其README和代码结构,你会发现它指向了一个极…

作者头像 李华
网站建设 2026/4/28 3:28:31

Transformer残差流与内部策略的深度解析

1. Transformer残差流与内部策略的深层解析在深入探讨大语言模型(LLM)的内部工作机制前,我们需要理解Transformer架构中一个关键但常被忽视的组件——残差流(residual stream)。这个信息高速公路贯穿整个模型,承载着从输入到输出的语义演变过程。1.1 残差…

作者头像 李华