news 2026/4/3 11:35:36

容器 的 cpu request limit 与 linux cgroups 的关系

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
容器 的 cpu request limit 与 linux cgroups 的关系

Kubernetes 通过对 Cgroups 的精细控制来实现其requestslimits机制。

简单来说:

  • requests-> 主要对应cpu.shares
  • limits-> 主要对应cpu.cfs_quota_uscpu.cfs_period_us

下面我们进行详细的分解和解释。


核心概念对应关系

Kubernetes 概念Cgroup 文件作用机制性质
spec.containers[].resources.requests.cpucpu.shares相对权重(Shares)软限制、弹性
spec.containers[].resources.limits.cpucpu.cfs_quota_us
cpu.cfs_period_us
绝对上限(Quota)硬限制、严格

1. CPU Request (requests.cpu) ->cpu.shares

  • 作用requests.cpu在 Kubernetes 中表示容器请求的、保证的最小 CPU 资源量。它主要影响 Pod 的调度——调度器会确保节点上有足够的可用资源(CPU 和内存)才会将 Pod 分配上去。
  • Cgroups 实现:Kubernetes 通过设置 Cgroup v1 的cpu.shares属性来实现这一点。
  • 工作原理
    • cpu.shaes是一个相对权重,而不是一个绝对的 CPU 核心数。
    • 它的默认值是 1024。
    • Kubernetes 的计算公式大致为:容器申请的 cpu.shares = 1024 * requests.cpu
    • 例如:如果一个容器设置了requests.cpu: 1.5,那么它的cpu.shares将被设置为1024 * 1.5 = 1536
  • 行为
    • 当节点上的 CPU 资源充足时,一个设置了requests.cpu的容器可以使用的 CPU可以超过其请求值,它几乎可以使用任何空闲的 CPU。
    • 当节点上的 CPU 资源紧张(多个容器竞争 CPU)时,CFS(完全公平调度器)会根据每个容器的cpu.shares比例来分配 CPU 时间。
    • 再例如:假设一个节点上只有两个 Pod:
      • Pod A:requests.cpu: 1->cpu.shares = 1024
      • Pod B:requests.cpu: 2->cpu.shares = 2048
      • 当两者都全力使用 CPU 时,它们将按照1024:2048(即1:2)的比例分配 CPU 时间。Pod A 大约获得 33% 的 CPU,Pod B 大约获得 66% 的 CPU。

总结:requests.cpu通过cpu.shares确保在资源竞争时获得最低保证份额,是一种“软”限制。


2. CPU Limit (limits.cpu) ->cpu.cfs_quota_us&cpu.cfs_period_us

  • 作用limits.cpu在 Kubernetes 中表示容器能使用的 CPU 资源的绝对硬性上限,无论节点上的 CPU 是否空闲,它都不能超过这个限制。
  • Cgroups 实现:Kubernetes 通过设置 Cgroup v1 的CPU 带宽控制(CPU bandwidth control)子系统来实现,即cpu.cfs_quota_uscpu.cfs_period_us这两个文件。
    • cpu.cfs_period_us:定义了一个时间周期(单位:微秒),通常固定设置为100,000 μs(即 100毫秒)。
    • cpu.cfs_quota_us:定义了在以上一个周期内,该容器最多可以使用的 CPU 时间(单位:微秒)。
  • 工作原理
    • 计算公式为:cpu.cfs_quota_us = limits.cpu * cpu.cfs_period_us
    • 例如:如果一个容器设置了limits.cpu: 1,那么:
      • cpu.cfs_period_us = 100000
      • cpu.cfs_quota_us = 1 * 100000 = 100000
      • 这意味着在每 100ms 的时间内,该容器最多可以使用 100ms 的 CPU 时间,即相当于独占 1 个 CPU 核心
    • 再例如:如果一个容器设置了limits.cpu: 1.5,那么:
      • cpu.cfs_quota_us = 1.5 * 100000 = 150000
      • 这意味着在每 100ms 的时间内,该容器最多可以使用 150ms 的 CPU 时间,即相当于独占 1.5 个 CPU 核心
    • 如果容器在周期内耗尽了它的配额(cpu.cfs_quota_us),它就会被节流(Throttled),必须等待下一个周期才能继续运行。

总结:limits.cpu通过cpu.cfs_quota_uscpu.cfs_period_us设置一个严格的“天花板”,是一个“硬”限制。


综合示例与实践意义

一个 Pod 的配置可以同时包含requestslimits

apiVersion: v1
kind: Pod
metadata:
name: example-pod
spec:
containers:

  • name: example-container
    image: nginx
    resources:
    requests:
    memory: “64Mi”
    cpu: “0.5” # 请求 0.5 核
    limits:
    memory: “128Mi”
    cpu: “1” # 限制最多使用 1 核

在这个例子中:

  1. 调度:调度器会寻找至少有 0.5 核空闲 CPU 和 64MiB 空闲内存的节点。
  2. Cgroups 设置
    • CPU:
      • cpu.shares = 1024 * 0.5 = 512
      • cpu.cfs_quota_us = 1 * 100000 = 100000
      • cpu.cfs_period_us = 100000
    • 内存:也会设置对应的memory.limit_in_bytes为 128MiB。

实践意义:

  • 设置requests而不设置limits:容器可以弹性使用尽可能多的空闲 CPU,但在竞争时享有保证的最低份额。适用于可以充分利用空闲资源但不需要严格限制的应用。
  • 设置limits而不设置requestsrequests会默认等于limits。这保证了 Pod 的资源,但缺乏弹性。通常不建议,除非你明确希望如此。
  • 同时设置requestslimits:这是最常见和推荐的做法。它既保证了 Pod 的调度和最小资源,又防止 bug 或异常导致单个 Pod 耗尽整个节点的资源( noisy neighbor 问题)。

因此,Kubernetes 通过将高级别的requestslimits概念映射到 Cgroups 底层的不同控制机制,实现了既灵活又严格的混合资源管理策略。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/3 8:08:26

【AI编程】5分钟用AI复刻有BOSS战的《坦克大战》

友友们,又到了周末AI整活时间了现在AI编程工具已经能做到一句话的需求生成一个完整的项目了,今天我们用Trae solo来试着复刻小时候的游戏《坦克大战》,并且部署上线,下面是演示效果和地址:https://tanke-orpin.vercel.…

作者头像 李华
网站建设 2026/4/4 1:57:25

AutoGPT在碳排放计算工具开发中的自动化支持

AutoGPT在碳排放计算工具开发中的自动化支持 如今,企业在应对气候变化、履行ESG责任的过程中,碳排放核算早已不再是可有可无的“附加项”,而是关乎合规性、融资能力甚至品牌声誉的关键环节。然而,现实却令人沮丧:大多数…

作者头像 李华
网站建设 2026/3/15 8:01:18

69、Ubuntu与Linux网络资源全攻略

Ubuntu与Linux网络资源全攻略 一、Ubuntu安装与开发参与 Ubuntu的安装方式较为多样。你可以使用标准的Ubuntu CD进行安装,也能从官网下载ISO9660格式(文件名以 .iso 结尾)的镜像文件,然后将其刻录到700MB的CD - R或DVD上。若不想自行下载和刻录,还能通过 http://shipit.…

作者头像 李华
网站建设 2026/3/23 14:32:10

AutoGPT与Google Calendar联动:智能提醒系统构建

AutoGPT与Google Calendar联动:智能提醒系统构建 在信息过载、任务繁杂的现代工作环境中,很多人每天都在“追赶时间”——明明列了待办清单,却总是在最后一刻才开始准备会议;计划好要学习新技能,但总是被临时事务打断。…

作者头像 李华
网站建设 2026/4/3 4:18:16

NVIDIA Llama Nemotro 推理模型构建企业级 AI 智能体

总结分析:使用先进的开放式 NVIDIA Llama Nemotron 推理模型构建企业级 AI 智能体 核心主旨: 本文旨在宣布并详细介绍 NVIDIA 新推出的 Llama Nemotron 推理模型系列。该系列的核心目标是解决企业级 AI 智能体对强大推理能力的迫切需求,通过…

作者头像 李华