Skip to content

Commit 1668d2c

Browse files
authored
Merge pull request #36578 from windsonsea/seccont
[zh] Resync /tasks/manage-daemon/update-daemon-set.md
2 parents 71c048c + f86a568 commit 1668d2c

File tree

1 file changed

+12
-16
lines changed

1 file changed

+12
-16
lines changed

content/zh-cn/docs/tasks/manage-daemon/update-daemon-set.md

Lines changed: 12 additions & 16 deletions
Original file line numberDiff line numberDiff line change
@@ -46,9 +46,9 @@ DaemonSet 有两种更新策略:
4646
-->
4747

4848
* `OnDelete`: 使用 `OnDelete` 更新策略时,在更新 DaemonSet 模板后,只有当你手动删除老的
49-
DaemonSet pods 之后,新的 DaemonSet Pod *才会*被自动创建。跟 Kubernetes 1.6 以前的版本类似。
49+
DaemonSet pods 之后,新的 DaemonSet Pod **才会**被自动创建。跟 Kubernetes 1.6 以前的版本类似。
5050
* `RollingUpdate`: 这是默认的更新策略。使用 `RollingUpdate` 更新策略时,在更新 DaemonSet 模板后,
51-
老的 DaemonSet pods 将被终止,并且将以受控方式自动创建新的 DaemonSet pods
51+
老的 DaemonSet Pod 将被终止,并且将以受控方式自动创建新的 DaemonSet Pod
5252
更新期间,最多只能有 DaemonSet 的一个 Pod 运行于每个节点上。
5353

5454
<!--
@@ -68,14 +68,13 @@ You may want to set
6868
[`.spec.minReadySeconds`](/docs/reference/kubernetes-api/workload-resources/daemon-set-v1/#DaemonSetSpec)
6969
(default to 0) and
7070
[`.spec.updateStrategy.rollingUpdate.maxSurge`](/docs/reference/kubernetes-api/workload-resources/daemon-set-v1/#DaemonSetSpec)
71-
(a beta feature and defaults to 0) as well.
72-
71+
(defaults to 0) as well.
7372
-->
7473
你可能想设置
7574
[`.spec.updateStrategy.rollingUpdate.maxUnavailable`](/zh-cn/docs/reference/kubernetes-api/workload-resources/daemon-set-v1/#DaemonSetSpec) (默认为 1),
7675
[`.spec.minReadySeconds`](/zh-cn/docs/reference/kubernetes-api/workload-resources/daemon-set-v1/#DaemonSetSpec) (默认为 0) 和
7776
[`.spec.updateStrategy.rollingUpdate.maxSurge`](/zh-cn/docs/reference/kubernetes-api/workload-resources/daemon-set-v1/#DaemonSetSpec)
78-
一种 Beta 阶段的特性,默认为 0)。
77+
(默认为 0)。
7978

8079
<!--
8180
### Creating a DaemonSet with `RollingUpdate` update strategy
@@ -101,8 +100,8 @@ kubectl create -f https://k8s.io/examples/controllers/fluentd-daemonset.yaml
101100
Alternatively, use `kubectl apply` to create the same DaemonSet if you plan to
102101
update the DaemonSet with `kubectl apply`.
103102
-->
104-
另一种方式是如果你希望使用 `kubectl apply` 来更新 DaemonSet 的话,也可以
105-
使用 `kubectl apply` 来创建 DaemonSet:
103+
另一种方式是如果你希望使用 `kubectl apply` 来更新 DaemonSet 的话,
104+
也可以使用 `kubectl apply` 来创建 DaemonSet:
106105

107106
```shell
108107
kubectl apply -f https://k8s.io/examples/controllers/fluentd-daemonset.yaml
@@ -169,9 +168,8 @@ use `kubectl apply`:
169168
-->
170169
#### 声明式命令 {#declarative-commands}
171170

172-
如果你使用
173-
[配置文件](/zh-cn/docs/tasks/manage-kubernetes-objects/declarative-config/)
174-
来更新 DaemonSet,请使用 `kubectl apply`:
171+
如果你使用[配置文件](/zh-cn/docs/tasks/manage-kubernetes-objects/declarative-config/)来更新
172+
DaemonSet,请使用 `kubectl apply`
175173

176174
```shell
177175
kubectl apply -f https://k8s.io/examples/controllers/fluentd-daemonset-update.yaml
@@ -186,9 +184,8 @@ use `kubectl edit`:
186184
-->
187185
#### 指令式命令 {#imperative-commands}
188186

189-
如果你使用
190-
[指令式命令](/zh-cn/docs/tasks/manage-kubernetes-objects/imperative-command/)
191-
来更新 DaemonSets,请使用 `kubectl edit`
187+
如果你使用[指令式命令](/zh-cn/docs/tasks/manage-kubernetes-objects/imperative-command/)来更新
188+
DaemonSets,请使用 `kubectl edit`
192189

193190
```shell
194191
kubectl edit ds/fluentd-elasticsearch -n kube-system
@@ -227,7 +224,7 @@ When the rollout is complete, the output is similar to this:
227224
-->
228225
当滚动更新完成时,输出结果如下:
229226

230-
```
227+
```shell
231228
daemonset "fluentd-elasticsearch" successfully rolled out
232229
```
233230

@@ -248,7 +245,6 @@ causes:
248245
-->
249246
有时,DaemonSet 滚动更新可能卡住,以下是一些可能的原因:
250247

251-
252248
#### 一些节点可用资源耗尽 {#some-nodes-run-out-of-resources}
253249

254250
<!--
@@ -264,7 +260,7 @@ DaemonSet 滚动更新可能会卡住,其 Pod 至少在某个节点上无法
264260
这是可能的。
265261

266262
发生这种情况时,通过对 `kubectl get nodes` 和下面命令行的输出作比较,
267-
找出没有调度部署 DaemonSet Pods 的节点:
263+
找出没有调度 DaemonSet Pod 的节点:
268264

269265
```shell
270266
kubectl get pods -l name=fluentd-elasticsearch -o wide -n kube-system

0 commit comments

Comments
 (0)