@@ -4,7 +4,7 @@ weight: 20
4
4
---
5
5
6
6
7
- クラスターはKubernetesのエージェントが動作する( 物理もしくは仮想の) {{< glossary_tooltip text="ノード" term_id="node" >}} の集合で、{{< glossary_tooltip text="コントロールプレーン" term_id="control-plane" >}} によって管理されます。
7
+ クラスターはKubernetesのエージェントが動作する( 物理もしくは仮想の) {{< glossary_tooltip text="ノード" term_id="node" >}}の集合で、{{< glossary_tooltip text="コントロールプレーン" term_id="control-plane" >}}によって管理されます。
8
8
Kubernetes {{< param "version" >}} では、最大5000ノードから構成されるクラスターをサポートします。
9
9
具体的には、Kubernetesは次の基準を * 全て* 満たす構成に対して適用できるように設計されています。
10
10
@@ -17,20 +17,20 @@ Kubernetes {{< param "version" >}} では、最大5000ノードから構成さ
17
17
これを行う方法は、クラスターがどのようにデプロイされたかに依存します。
18
18
19
19
20
- ## クラウドプロバイダのリソースクォータ {#クォータの問題}
20
+ ## クラウドプロバイダーのリソースクォータ {#クォータの問題}
21
21
22
- クラウドプロバイダのクォータの問題に遭遇することを避けるため 、多数のノードを使ったクラスターを作成するときには次のようなことを考慮してください。
22
+ クラウドプロバイダのクォーターの問題に遭遇することを避けるため 、多数のノードを使ったクラスターを作成するときには次のようなことを考慮してください。
23
23
24
24
* 次のようなクラウドリソースの増加をリクエストする
25
25
* コンピュータインスタンス
26
26
* CPU
27
27
* ストレージボリューム
28
28
* 使用中のIPアドレス
29
29
* パケットフィルタリングのルールセット
30
- * ロードバランサの数
30
+ * ロードバランサーの数
31
31
* ネットワークサブネット
32
32
* ログストリーム
33
- * クラウドプロバイダによる新しいインスタンスの作成に対するレート制限のため 、バッチで新しいノードを立ち上げるようなクラスターのスケーリング操作を通すためには、バッチ間ですこし休止を入れます。
33
+ * クラウドプロバイダーによる新しいインスタンスの作成に対するレート制限のため 、バッチで新しいノードを立ち上げるようなクラスターのスケーリング操作を通すためには、バッチ間ですこし休止を入れます。
34
34
35
35
36
36
## コントロールプレーンのコンポーネント
@@ -41,27 +41,27 @@ Kubernetes {{< param "version" >}} では、最大5000ノードから構成さ
41
41
42
42
フォールトトレランスを備えるために、1つの故障ゾーンに対して最低1インスタンスを動かすべきです。
43
43
Kubernetesノードは、同一故障ゾーン内のコントロールプレーンエンドポイントに対して自動的にトラフィックが向かないようにします。
44
- しかし、クラウドプロバイダはこれを実現するための独自の機構を持っているかもしれません 。
44
+ しかし、クラウドプロバイダーはこれを実現するための独自の機構を持っているかもしれません 。
45
45
46
- 例えばマネージドなロードバランサを使うと 、故障ゾーン _ A_ にあるkubeletやPodから発生したトラフィックを、同じく故障ゾーン _ A_ にあるコントロールプレーンホストに対してのみ送るように設定します。もし1つのコントロールプレーンホストまたは故障ゾーン _ A_ のエンドポイントがオフラインになった場合、ゾーン _ A_ にあるノードについてすべてのコントロールプレーンのトラフィックはゾーンを跨いで送信されます。それぞれのゾーンで複数のコントロールプレーンホストを動作させることは、結果としてほとんどありません。
46
+ 例えばマネージドなロードバランサーを使うと 、故障ゾーン _ A_ にあるkubeletやPodから発生したトラフィックを、同じく故障ゾーン _ A_ にあるコントロールプレーンホストに対してのみ送るように設定します。もし1つのコントロールプレーンホストまたは故障ゾーン _ A_ のエンドポイントがオフラインになった場合、ゾーン _ A_ にあるノードについてすべてのコントロールプレーンのトラフィックはゾーンを跨いで送信されます。それぞれのゾーンで複数のコントロールプレーンホストを動作させることは、結果としてほとんどありません。
47
47
48
48
49
49
## etcdストレージ
50
50
51
51
大きなクラスターの性能を向上させるために、他の専用のetcdインスタンスにイベントオブジェクトを保存できます。
52
52
53
- クラスターを作るときに、( カスタムツールを使って) 以下のようなことができます。
53
+ クラスターを作るときに、( カスタムツールを使って) 以下のようなことができます。
54
54
55
55
* 追加のetcdインスタンスを起動または設定する
56
- * イベントを保存するために {{< glossary_tooltip term_id="kube-apiserver" text="APIサーバ" >}} を設定する
56
+ * イベントを保存するために{{< glossary_tooltip term_id="kube-apiserver" text="APIサーバ" >}}を設定する
57
57
58
- 大きなクラスターのためにetcdを設定・管理する詳細については、[ Operating etcd clusters for Kubernetes] ( /docs/tasks/administer-cluster/configure-upgrade-etcd/ ) または [ kubeadmを使用した高可用性etcdクラスターの作成] ( /ja/docs/setup/production-environment/tools/kubeadm/setup-ha-etcd-with-kubeadm/ ) を見てください。
58
+ 大きなクラスターのためにetcdを設定・管理する詳細については、[ Operating etcd clusters for Kubernetes] ( /docs/tasks/administer-cluster/configure-upgrade-etcd/ ) または[ kubeadmを使用した高可用性etcdクラスターの作成] ( /ja/docs/setup/production-environment/tools/kubeadm/setup-ha-etcd-with-kubeadm/ ) を見てください。
59
59
60
60
61
61
## アドオンのリソース
62
62
63
- Kubernetesの [ リソース制限] ( /ja/docs/concepts/configuration/manage-resources-containers/ ) は、メモリリークの影響やPodやコンテナが他のコンポーネントに与える他の影響を最小化することに役立ちます。
64
- これらのリソース制限は、アプリケーションのワークロードに適用するのと同様に、{{< glossary_tooltip text="アドオン" term_id="addons" >}} のリソースにも適用されます。
63
+ Kubernetesの[ リソース制限] ( /ja/docs/concepts/configuration/manage-resources-containers/ ) は、メモリリークの影響やPodやコンテナが他のコンポーネントに与える他の影響を最小化することに役立ちます。
64
+ これらのリソース制限は、アプリケーションのワークロードに適用するのと同様に、{{< glossary_tooltip text="アドオン" term_id="addons" >}}のリソースにも適用されます。
65
65
66
66
例えば、ロギングコンポーネントに対してCPUやメモリ制限を設定できます。
67
67
@@ -78,7 +78,7 @@ Kubernetesの [リソース制限](/ja/docs/concepts/configuration/manage-resour
78
78
79
79
アドオンのデフォルト制限は、アドオンを小~中規模のKubernetesクラスターで動作させたときの経験から得られたデータに基づきます。
80
80
大規模のクラスターで動作させる場合は、アドオンはデフォルト制限よりも多くのリソースを消費することが多いです。
81
- これらの値を調整せずに大規模のクラスターをデプロイした場合、メモリ制限に達し続けるため 、アドオンが継続的に停止されるかもしれません。
81
+ これらの値を調整せずに大規模のクラスターをデプロイした場合、メモリー制限に達し続けるため 、アドオンが継続的に停止されるかもしれません。
82
82
あるいは、CPUのタイムスライス制限により性能がでない状態で動作するかもしれません。
83
83
84
84
クラスターのアドオンのリソース制限に遭遇しないために、多くのノードで構成されるクラスターを構築する場合は次のことを考慮します。
@@ -91,8 +91,8 @@ Kubernetesの [リソース制限](/ja/docs/concepts/configuration/manage-resour
91
91
# # {{% heading "whatsnext" %}}
92
92
93
93
` VerticalPodAutoscaler` は、リソースのリクエストやPodの制限についての管理を手助けするためにクラスターへデプロイ可能なカスタムリソースです。
94
- ` VerticalPodAutoscaler` やクラスターで致命的なアドオンを含むクラスターコンポーネントをスケールする方法についてさらに知りたい場合は [Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler#readme) をご覧ください。
94
+ ` VerticalPodAutoscaler` やクラスターで致命的なアドオンを含むクラスターコンポーネントをスケールする方法についてさらに知りたい場合は[Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler#readme)をご覧ください。
95
95
96
- [cluster autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler#readme) は、クラスターで要求されるリソース水準を満たす正確なノード数で動作できるよう、いくつかのクラウドプロバイダと統合されています 。
96
+ [cluster autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler#readme)は、クラスターで要求されるリソース水準を満たす正確なノード数で動作できるよう、いくつかのクラウドプロバイダーと統合されています 。
97
97
98
- [addon resizer](https://github.com/kubernetes/autoscaler/tree/master/addon-resizer#readme) は、クラスターのスケールが変化したときにアドオンの自動的なリサイズをお手伝いします。
98
+ [addon resizer](https://github.com/kubernetes/autoscaler/tree/master/addon-resizer#readme)は、クラスターのスケールが変化したときにアドオンの自動的なリサイズをお手伝いします。
0 commit comments