news 2026/4/17 21:06:31

零基础教程:Docker Compose安装到第一个应用部署

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
零基础教程:Docker Compose安装到第一个应用部署

快速体验

  1. 打开 InsCode(快马)平台 https://www.inscode.net
  2. 输入框内输入如下内容:
创建一个最简单的Docker Compose学习示例,包含:1) 一个Nginx Web服务器;2) 一个静态HTML页面;3) 清晰的步骤说明注释。要求配置中展示基本概念:services、volumes、ports等,并添加如何访问服务的说明。文件大小不超过50行,使用最简配置。
  1. 点击'项目生成'按钮,等待项目生成完整后预览效果

最近在学习Docker Compose,发现它真的是简化多容器应用部署的神器。作为一个刚入门的小白,记录下从安装到运行第一个应用的完整过程,希望能帮到同样想尝试的朋友。

  1. 安装Docker Compose

首先需要确保系统已经安装了Docker引擎。在Linux系统上,可以通过包管理器直接安装:

sudo apt-get update sudo apt-get install docker-ce docker-ce-cli containerd.io

Windows和Mac用户可以直接下载Docker Desktop,它已经包含了Docker Compose。

验证安装是否成功:

docker-compose --version
  1. 创建项目目录

新建一个项目文件夹,比如my_first_compose,所有文件都将放在这个目录下。

  1. 准备静态网页

创建一个简单的index.html文件,内容可以很简单:

<!DOCTYPE html> <html> <head> <title>My First Compose</title> </head> <body> <h1>Hello Docker Compose!</h1> </body> </html>
  1. 编写docker-compose.yml

这是最核心的配置文件,定义了我们的服务:

version: '3' services: web: image: nginx:alpine ports: - "8080:80" volumes: - ./index.html:/usr/share/nginx/html/index.html

这个配置做了几件事: - 使用轻量级的nginx:alpine镜像 - 将容器80端口映射到主机的8080端口 - 把本地的index.html挂载到nginx的默认网页目录

  1. 启动服务

在项目目录下运行:

docker-compose up -d

-d参数让服务在后台运行。

  1. 访问服务

打开浏览器访问http://localhost:8080,就能看到我们准备的静态页面了。

  1. 管理服务

一些常用命令: -docker-compose down停止并移除容器 -docker-compose ps查看运行状态 -docker-compose logs查看日志

  1. 扩展:添加数据库服务

如果想体验多服务协作,可以扩展配置:

version: '3' services: web: image: nginx:alpine ports: - "8080:80" volumes: - ./index.html:/usr/share/nginx/html/index.html depends_on: - db db: image: mysql:5.7 environment: MYSQL_ROOT_PASSWORD: example

这个配置添加了一个MySQL服务,web服务通过depends_on声明依赖关系。

整个过程下来,发现Docker Compose确实让多容器应用的部署变得非常简单。配置文件清晰明了,一条命令就能启动整个应用栈。对于开发环境搭建、测试部署特别方便。

如果想快速体验这种容器化部署,可以试试InsCode(快马)平台,它内置了完整的Docker环境,可以直接运行这类容器化应用,省去了本地安装配置的麻烦。我试过在上面部署类似的Web服务,整个过程非常流畅,特别适合新手快速上手实践。

快速体验

  1. 打开 InsCode(快马)平台 https://www.inscode.net
  2. 输入框内输入如下内容:
创建一个最简单的Docker Compose学习示例,包含:1) 一个Nginx Web服务器;2) 一个静态HTML页面;3) 清晰的步骤说明注释。要求配置中展示基本概念:services、volumes、ports等,并添加如何访问服务的说明。文件大小不超过50行,使用最简配置。
  1. 点击'项目生成'按钮,等待项目生成完整后预览效果
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/9 19:12:41

tunnelto:极简本地服务全球访问解决方案

tunnelto&#xff1a;极简本地服务全球访问解决方案 【免费下载链接】tunnelto Expose your local web server to the internet with a public URL. 项目地址: https://gitcode.com/GitHub_Trending/tu/tunnelto 在远程协作日益普及的今天&#xff0c;如何快速将本地运行…

作者头像 李华
网站建设 2026/4/16 12:37:49

Windows 7终极解决方案:轻松安装Python 3.9+完整指南

Windows 7终极解决方案&#xff1a;轻松安装Python 3.9完整指南 【免费下载链接】PythonWin7 Python 3.9 installers that support Windows 7 SP1 and Windows Server 2008 R2 项目地址: https://gitcode.com/gh_mirrors/py/PythonWin7 还在为Windows 7系统无法运行最新…

作者头像 李华
网站建设 2026/4/15 5:32:54

Llama Factory高效微调:省时省力的AI模型定制方案

Llama Factory高效微调&#xff1a;省时省力的AI模型定制方案 作为一名经常需要微调大模型的开发者&#xff0c;我深知本地环境配置的繁琐和耗时。从CUDA版本冲突到依赖包安装失败&#xff0c;每一步都可能成为拦路虎。好在Llama Factory这个开源低代码框架的出现&#xff0c;…

作者头像 李华
网站建设 2026/4/16 17:06:05

Llama Factory微调避坑指南:如何快速解决vLLM框架中的对话模板问题

Llama Factory微调避坑指南&#xff1a;如何快速解决vLLM框架中的对话模板问题 为什么你的微调模型在vLLM中表现不稳定&#xff1f; 最近我在使用Llama Factory微调大模型时遇到了一个典型问题&#xff1a;微调后的模型在本地测试对话效果良好&#xff0c;但部署到vLLM框架后&a…

作者头像 李华
网站建设 2026/4/15 14:35:43

教育优惠:学生党低成本使用Z-Image-Turbo的完整指南

教育优惠&#xff1a;学生党低成本使用Z-Image-Turbo的完整指南 如果你所在的计算机社团想组织AI绘画工作坊&#xff0c;但成员大多只有轻薄本电脑&#xff0c;那么云端GPU资源可能是你们的最佳选择。本文将详细介绍如何利用教育优惠和优化方案&#xff0c;让参与者都能负担得起…

作者头像 李华
网站建设 2026/4/13 17:11:29

Llama Factory微调显存优化秘籍:云端GPU的终极解决方案

Llama Factory微调显存优化秘籍&#xff1a;云端GPU的终极解决方案 引言&#xff1a;为什么你的大模型微调总是爆显存&#xff1f; 最近在微调Baichuan-7B这样的大模型时&#xff0c;我发现即使使用了A100 80G显卡和DeepSpeed优化&#xff0c;仍然频繁遇到OOM&#xff08;内存不…

作者头像 李华