@@ -26,7 +26,7 @@ Podのオーバーヘッドを有効にした場合、Podのスケジューリ
26
26
27
27
## 使用例
28
28
29
- Podのオーバーヘッド機能を使用するためには、` overhead ` フィールドが定義されたRuntimeClassが必要です。例として、仮想マシンとゲストOSにPodあたり約120MiBを使用する仮想化コンテナーランタイムで 、次のようなRuntimeClassを定義できます。
29
+ Podのオーバーヘッド機能を使用するためには、` overhead ` フィールドが定義されたRuntimeClassが必要です。例として、仮想マシンとゲストOSにPodあたり約120MiBを使用する仮想化コンテナランタイムで 、次のようなRuntimeClassを定義できます。
30
30
31
31
``` yaml
32
32
---
@@ -81,22 +81,22 @@ kubectl get pod test-pod -o jsonpath='{.spec.overhead}'
81
81
` ` `
82
82
map[cpu:250m memory:120Mi]
83
83
` ` `
84
- ResourceQuotaが定義されている場合、コンテナー要求の合計と `オーバーヘッド`フィールドがカウントされます。
84
+ ResourceQuotaが定義されている場合、コンテナ要求の合計と `オーバーヘッド`フィールドがカウントされます。
85
85
86
- kube-schedulerが新しいPodを実行すべきNodeを決定する際、スケジューラーはそのPodの`オーバーヘッド`と、そのPodに対するコンテナー要求の合計を考慮します 。この例だと、スケジューラーは、要求とオーバーヘッドを追加し、2.25CPUと320MiBのメモリを持つNodeを探します。
86
+ kube-schedulerが新しいPodを実行すべきNodeを決定する際、スケジューラーはそのPodの`オーバーヘッド`と、そのPodに対するコンテナ要求の合計を考慮します 。この例だと、スケジューラーは、要求とオーバーヘッドを追加し、2.25CPUと320MiBのメモリを持つNodeを探します。
87
87
88
- PodがNodeにスケジュールされると、そのNodeのkubeletはPodのために新しい{{< glossary_tooltip text="cgroup" term_id="cgroup" >}}を生成します。基盤となるコンテナーランタイムがコンテナーを作成するのは 、このPod内です。
88
+ PodがNodeにスケジュールされると、そのNodeのkubeletはPodのために新しい{{< glossary_tooltip text="cgroup" term_id="cgroup" >}}を生成します。基盤となるコンテナランタイムがコンテナを作成するのは 、このPod内です。
89
89
90
- リソースにコンテナごとの制限が定義されている場合(制限が定義されているGuaranteed QoSまたはBustrable QoS)、kubeletはそのリソース(CPUはcpu.cfs_quota_us、メモリはmemory.limit_in_bytes)に関連するPodのcgroupの上限を設定します。この上限は、コンテナーの制限とPodSpecで定義された `オーバーヘッド`の合計に基づきます。
90
+ リソースにコンテナごとの制限が定義されている場合(制限が定義されているGuaranteed QoSまたはBustrable QoS)、kubeletはそのリソース(CPUはcpu.cfs_quota_us、メモリはmemory.limit_in_bytes)に関連するPodのcgroupの上限を設定します。この上限は、コンテナの制限とPodSpecで定義された `オーバーヘッド`の合計に基づきます。
91
91
92
- CPUについては、PodがGuaranteedまたはBurstable QoSの場合、kubeletはコンテナーの要求の合計とPodSpecに定義された `オーバーヘッド`に基づいて`cpu.share`を設定します。
92
+ CPUについては、PodがGuaranteedまたはBurstable QoSの場合、kubeletはコンテナの要求の合計とPodSpecに定義された `オーバーヘッド`に基づいて`cpu.share`を設定します。
93
93
94
- 次の例より、ワークロードに対するコンテナーの要求を確認できます 。
94
+ 次の例より、ワークロードに対するコンテナの要求を確認できます 。
95
95
` ` ` bash
96
96
kubectl get pod test-pod -o jsonpath='{.spec.containers[*].resources.limits}'
97
97
` ` `
98
98
99
- コンテナーの要求の合計は 、CPUは2000m、メモリーは200MiBです。
99
+ コンテナの要求の合計は 、CPUは2000m、メモリーは200MiBです。
100
100
```
101
101
map[ cpu: 500m memory:100Mi] map[ cpu:1500m memory:100Mi]
102
102
```
@@ -115,7 +115,7 @@ kubectl describe node | grep test-pod -B2
115
115
116
116
## Podのcgroupの制限を確認
117
117
118
- ワークロードで実行中のNode上にある、Podのメモリーのcgroupを確認します。次に示す例では、CRI互換のコンテナーランタイムのCLIを提供するNodeで [ ` crictl ` ] ( https://github.com/kubernetes-sigs/cri-tools/blob/master/docs/crictl.md ) を使用しています。これはPodのオーバーヘッドの動作を示すための高度な例であり、ユーザーがNode上で直接cgroupsを確認する必要はありません。
118
+ ワークロードで実行中のNode上にある、Podのメモリーのcgroupを確認します。次に示す例では、CRI互換のコンテナランタイムのCLIを提供するNodeで [ ` crictl ` ] ( https://github.com/kubernetes-sigs/cri-tools/blob/master/docs/crictl.md ) を使用しています。これはPodのオーバーヘッドの動作を示すための高度な例であり、ユーザーがNode上で直接cgroupsを確認する必要はありません。
119
119
120
120
まず、特定のNodeで、Podの識別子を決定します。
121
121
@@ -130,7 +130,7 @@ POD_ID="$(sudo crictl pods --name test-pod -q)"
130
130
sudo crictl inspectp -o=json $POD_ID | grep cgroupsPath
131
131
```
132
132
133
- 結果のcgroupパスにはPodの` ポーズ中 ` コンテナーも含まれます 。Podレベルのcgroupは1つ上のディレクトリです。
133
+ 結果のcgroupパスにはPodの` ポーズ中 ` コンテナも含まれます 。Podレベルのcgroupは1つ上のディレクトリです。
134
134
```
135
135
"cgroupsPath": "/kubepods/podd7f4b509-cf94-4951-9417-d1087c92a5b2/7ccf55aee35dd16aca4189c952d83487297f3cd760f1bbf09620e206e7d0c27a"
136
136
```
0 commit comments