如何合理使用 CPU 管理策略,提升容器性能?
作者:張佐瑋(佑祎)
前言
在云原生時代下,應(yīng)用工作負載都是以容器的形式部署在宿主機,共享各類物理資源。隨著宿主機硬件性能的增強,單節(jié)點的容器部署密度進一步提升,由此帶來的進程間 CPU 爭用,跨 NUMA 訪存等問題也更加嚴(yán)重,影響了應(yīng)用性能表現(xiàn)。如何分配和管理宿主機的 CPU 資源,保障應(yīng)用可以獲得最優(yōu)的服務(wù)質(zhì)量,是衡量容器服務(wù)技術(shù)能力的關(guān)鍵因素。
節(jié)點側(cè)容器 CPU 資源管理
Kubelet 的 CPU 分配策略
Kubernetes 為容器資源管理提供了 request(請求)和 limit(約束)的語義描述,當(dāng)容器指定了 request 時,調(diào)度器會利用該信息決定 Pod 應(yīng)該被分配到哪個節(jié)點上;當(dāng)容器指定了 limit 時,Kubelet 會確保容器在運行時不會超用。
CPU 是一種典型的分時復(fù)用型資源,內(nèi)核調(diào)度器會將 CPU 分為多個時間片,輪流為各進程分配一定的運行時間。Kubelet 默認(rèn)的 CPU 管理策略會通過 Linux 內(nèi)核的 CFS 帶寬控制器(CFS Bandwidth Controller)來控制容器 CPU 資源的使用上限。在多核節(jié)點下,進程在運行過程中經(jīng)常會被遷移到其不同的核心,考慮到有些應(yīng)用的性能對 CPU 上下文切換比較敏感,Kubelet 還提供了 static 策略,允許 Guaranteed 類型 Pod 獨占 CPU 核心。
內(nèi)核 CPU 資源調(diào)度
內(nèi)核 CFS 調(diào)度是通過 cfs_period 和 cfs_quota 兩個參數(shù)來管理容器 CPU 時間片消耗的,cfs_period 一般為固定值 100 ms,cfs_quota 對應(yīng)容器的 CPU Limit。例如對于一個 CPU Limit = 2 的容器,其 cfs_quota 會被設(shè)置為 200ms,表示該容器在每 100ms 的時間周期內(nèi)最多使用 200ms 的 CPU 時間片,即 2 個 CPU 核心。當(dāng)其 CPU 使用量超出預(yù)設(shè)的 limit 值時,容器中的進程會受內(nèi)核調(diào)度約束而被限流。細心的應(yīng)用管理員往往會在集群 Pod 監(jiān)控中的 CPU Throttle Rate 指標(biāo)觀察到這一特征。
容器 CPU 性能問題現(xiàn)狀
讓應(yīng)用管理員常常感到疑惑的是,為什么容器的資源利用率并不高,但卻頻繁出現(xiàn)應(yīng)用性能下降的問題?從 CPU 資源的角度來分析,問題通常來自于以下兩方面:一是內(nèi)核在根據(jù) CPU Limit 限制容器資源消耗時產(chǎn)生的 CPU Throttle 問題;二是受 CPU 拓撲結(jié)構(gòu)的影響,部分應(yīng)用對進程在 CPU 間的上下文切換比較敏感,尤其是在發(fā)生跨 NUMA 訪問時的情況。
CPU Throttle 問題詳解
受內(nèi)核調(diào)度控制周期(cfs_period)影響,容器的 CPU 利用率往往具有一定的欺騙性,下圖展示了某容器一段時間的 CPU 使用情況(單位為0.01核),可以看到在 1s 級別的粒度下(圖中紫色折線),容器的 CPU 用量較為穩(wěn)定,平均在 2.5 核左右。根據(jù)經(jīng)驗,管理員會將 CPU Limit設(shè)置為 4 核。本以為這已經(jīng)保留了充足的彈性空間,然而若我們將觀察粒度放大到 100ms 級別(圖中綠色折線),容器的 CPU 用量呈現(xiàn)出了嚴(yán)重的毛刺現(xiàn)象,峰值達到 4 核以上。此時容器會產(chǎn)生頻繁的 CPU Throttle,進而導(dǎo)致應(yīng)用性能下降、RT 抖動,但我們從常用的 CPU 利用率指標(biāo)中竟然完全無法發(fā)現(xiàn)!
毛刺產(chǎn)生的原因通常是由于應(yīng)用突發(fā)性的 CPU 資源需求(如代碼邏輯熱點、流量突增等),下面我們用一個具體的例子來描述 CPU Throttle 導(dǎo)致應(yīng)用性能下降的過程。圖中展示了一個CPU Limit = 2 的 Web 服務(wù)類容器,在收到請求后(req)各線程(Thread)的 CPU 資源分配情況。假設(shè)每個請求的處理時間均為 60 ms,可以看到,即使容器在最近整體的 CPU 利用率較低,由于在 100 ms~200 ms 區(qū)間內(nèi)連續(xù)處理了4 個請求,將該內(nèi)核調(diào)度周期內(nèi)的時間片預(yù)算(200ms)全部消耗,Thread 2 需要等待下一個周期才能繼續(xù)將 req 2 處理完成,該請求的響應(yīng)時延(RT)就會變長。這種情況在應(yīng)用負載上升時將更容易發(fā)生,導(dǎo)致其 RT 的長尾情況將會變得更為嚴(yán)重。
為了避免 CPU Throttle 的問題,我們只能將容器的 CPU Limit 值調(diào)大。然而,若想徹底解決 CPU Throttle,通常需要將 CPU Limit 調(diào)大兩三倍,有時甚至五到十倍,問題才會得到明顯緩解。而為了降低 CPU Limit 超賣過多的風(fēng)險,還需降低容器的部署密度,進而導(dǎo)致整體資源成本上升。
CPU 拓撲結(jié)構(gòu)的影響
在 NUMA 架構(gòu)下,節(jié)點中的 CPU 和內(nèi)存會被切分成了兩部分甚至更多(例如圖中 Socket0,Socket1),CPU 被允許以不同的速度訪問內(nèi)存的不同部分,當(dāng) CPU 跨 Socket 訪問另一端內(nèi)存時,其訪存時延相對更高。盲目地在節(jié)點為容器分配物理資源可能會降低延遲敏感應(yīng)用的性能,因此我們需要避免將 CPU 分散綁定到多個 Socket 上,提升內(nèi)存訪問時的本地性。如下圖所示,同樣是為兩個容器分配 CPU、內(nèi)存資源,顯然場景B中的分配策略更為合理。
Kubelet 提供的 CPU 管理策略 “static policy”、以及拓撲管理策略 “single-numa-node”,會將容器與 CPU 綁定,可以提升應(yīng)用負載與 CPU Cache,以及 NUMA 之間的親和性,但這是否一定能夠解決所有因 CPU 帶來的性能問題呢,我們可以看下面的例子。
某 CPU Limit = 2 的容器,其應(yīng)用在 100ms 時間點收到了 4 個請求需要處理,在 Kubelet 提供的 static 模式下,容器會被固定在 CPU0 和 CPU1 兩個核心,各線程只能排隊運行,而在 Default 模式下,容器獲得了更多的 CPU 彈性,收到請求后各線程可以立即處理。可以看出,綁核策略并不是“銀彈”,Default 模式也有適合自己的應(yīng)用場景。
事實上,CPU 綁核解決的是進程在不同 Core,特別是不同 NUMA 間上下文切換帶來的性能問題,但解決的同時也損失了資源彈性。在這種情況下線程會在各 CPU 排隊運行,雖然 CPU Throttle 指標(biāo)可能有所降低,但應(yīng)用自身的性能問題并沒有完全解決。
使用 CPU Burst 機制提升容器性能
往期文章我們介紹了阿里云貢獻的 CPU Burst 內(nèi)核特性,可以有效解決 CPU Throttle 的問題,當(dāng)容器真實 CPU 資源使用小于 cfs_quota 時,內(nèi)核會將多余的 CPU 時間“存入”到 cfs_burst 中;當(dāng)容器有突發(fā)的 CPU 資源需求,需要使用超出 cfs_quota 的資源時,內(nèi)核的 CFS 帶寬控制器(CFS Bandwidth Controller,簡稱 BWC) 會允許其消費其之前存到 cfs_burst 的時間片。
CPU Burst 機制可以有效解決延遲敏感性應(yīng)用的 RT 長尾問題,提升容器性能表現(xiàn),目前阿里云容器服務(wù) ACK 已經(jīng)完成了對 CPU Burst 機制的全面支持。對于尚未支持 CPU Burst 策略的內(nèi)核版本,ACK 也會通過類似的原理,監(jiān)測容器 CPU Throttle 狀態(tài),并動態(tài)調(diào)節(jié)容器的 CPU Limit,實現(xiàn)與內(nèi)核 CPU Burst 策略類似的效果。
我們使用 Apache HTTP Server 作為延遲敏感型在線應(yīng)用,通過模擬請求流量,評估 CPU Burst 能力對響應(yīng)時間(RT)的提升效果。以下數(shù)據(jù)分別展示了 CPU Burst 策略開啟前后的表現(xiàn)情況:
對比以上數(shù)據(jù)可得知:
- 在開啟 CPU Burst 能力后,應(yīng)用的 RT 指標(biāo)的 p99 分位值得到了明顯的優(yōu)化。
- 對比 CPU Throttled 及利用率指標(biāo),可以看到開啟 CPU Burst 能力后,CPU Throttled 情況得到了消除,同時 Pod 整體利用率基本保持不變。
使用拓撲感知調(diào)度提升容器性能
雖然 Kubelet 提供了單機的資源管理策略(static policy,single-numa-node),可以部分解決應(yīng)用性能表現(xiàn)受 CPU 緩存、NUMA 親和性影響的問題,但該策略尚有以下不足之處:
- static policy 只支持 QoS 為 Guaranteed 的 Pod,其他 QoS 類型的 Pod 無法使用
- 策略對節(jié)點內(nèi)所有 Pod 全部生效,而我們通過前面的分析知道,CPU 綁核并不是”銀彈“
- 中心調(diào)度并不感知節(jié)點實際的 CPU 分配情況,無法在集群范圍內(nèi)選擇到最優(yōu)組合
阿里云容器服務(wù) ACK 基于 Scheduling framework 實現(xiàn)了拓撲感知調(diào)度以及靈活的綁核策略,針對 CPU 敏感型的工作負載可以提供更好的性能。ACK 拓撲感知調(diào)度可以適配所有 QoS 類型,并支持在 Pod 維度按需開啟,同時可以在全集群范圍內(nèi)選擇節(jié)點和 CPU 拓撲的最優(yōu)組合。
通過對 Nginx 服務(wù)進行的評測,我們發(fā)現(xiàn)在 Intel(104核)、AMD(256核)的物理機上,使用 CPU 拓撲感知調(diào)度能夠?qū)?yīng)用性能提升 22%~43%。
總結(jié)
CPU Burst、拓撲感知調(diào)度是阿里云容器服務(wù) ACK 提升應(yīng)用性能的兩大利器,它們解決了不同場景下的 CPU 資源管理,可以共同使用。
CPU Burst 解決了內(nèi)核 BWC 調(diào)度時針對 CPU Limit 的限流問題,可以有效提升延時敏感型任務(wù)的性能表現(xiàn)。但 CPU Burst 本質(zhì)并不是將資源無中生有地變出來,若容器 CPU 利用率已經(jīng)很高(例如大于50%),CPU Burst 能起到的優(yōu)化效果將會受限,此時應(yīng)該通過 HPA 或 VPA 等手段對應(yīng)用進行擴容。
拓撲感知調(diào)度降低了工作負載 CPU 上下文切換的開銷,特別是在 NUMA 架構(gòu)下,可以提升 CPU 密集型,訪存密集型應(yīng)用的服務(wù)質(zhì)量。不過正如前文中提到的,CPU 綁核并不是“銀彈”,實際效果取決于應(yīng)用類型。此外,若同一節(jié)點內(nèi)大量 Burstable 類型 Pod 同時開啟了拓撲感知調(diào)度,CPU 綁核可能會產(chǎn)生重疊,在個別場景下反而會加劇應(yīng)用間的干擾。因此,拓撲感知調(diào)度更適合針對性的開啟。
點擊此處,即可查看阿里云 ACK 支持 CPU Burst 、拓撲感知調(diào)度的詳細介紹!
發(fā)布云原生技術(shù)最新資訊、匯集云原生技術(shù)最全內(nèi)容,定期舉辦云原生活動、直播,阿里產(chǎn)品及用戶最佳實踐發(fā)布。與你并肩探索云原生技術(shù)點滴,分享你需要的云原生內(nèi)容。
關(guān)注【阿里巴巴云原生】公眾號,獲取更多云原生實時資訊!
總結(jié)
以上是生活随笔為你收集整理的如何合理使用 CPU 管理策略,提升容器性能?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 全链路灰度这样做,新需求迭代上线也能放心
- 下一篇: 云计算情报局预告|告别 Kafka St