Skip to content

Commit c4e1571

Browse files
committed
[es] Correción documentación Network Policy fix
1 parent c189ad6 commit c4e1571

File tree

1 file changed

+24
-24
lines changed

1 file changed

+24
-24
lines changed

content/es/docs/concepts/workloads/pods/disruptions.md

Lines changed: 24 additions & 24 deletions
Original file line numberDiff line numberDiff line change
@@ -94,7 +94,7 @@ en las especificaciones de su Pod pueden también causar interrupciones voluntar
9494
Kubernetes ofrece carácteristicas para ayudar a ejecutar aplicaciones con alta disponibliidad, incluso cuando usted
9595
introduce interrupciones voluntarias frecuentes.
9696

97-
Como dueño de la aplicación, usted puede crear un presupuesto de interrupción de pods (PDB por sus siglas en inglés) para cada aplicación.
97+
Como dueño de la aplicación, usted puede crear un presupuesto de interrupción de Pods (PDB por sus siglas en inglés) para cada aplicación.
9898
Un PDB limita el numero de Pods de una aplicación replicada, que estan caídos de manera simultánea por
9999
interrupciones voluntarias. Por ejemplo, una aplicación basada en quórum puede
100100
asegurarse que el número de réplicas corriendo nunca es menor al
@@ -103,68 +103,68 @@ asegurarse que el número de réplicas atendiendo al tráfico nunca puede caer b
103103
porcentaje del total.
104104

105105
Los administradores del clúster y proveedores de hosting pueden usar herramientas que
106-
respeten el presupuesto de interrupción de pods utilizando la [API de Desalojo](/docs/tasks/administer-cluster/safely-drain-node/#eviction-api)
107-
en vez de directamente borrar pods o Deployments.
106+
respeten el presupuesto de interrupción de Pods utilizando la [API de Desalojo](/docs/tasks/administer-cluster/safely-drain-node/#eviction-api)
107+
en vez de directamente borrar Pods o Deployments.
108108

109109
Por ejemplo, el subcomando `kubectl drain` le permite marcar un nodo a un modo fuera de
110-
servicio. Cuando se ejecuta `kubectl drain`, la herramienta trata de quitar a todos los pods en
110+
servicio. Cuando se ejecuta `kubectl drain`, la herramienta trata de quitar a todos los Pods en
111111
el nodo que se esta dejando fuera de servicio. La petición de desalojo que `kubectl` solicita en
112112
su nombre puede ser temporalmente denegado, entonces la herramienta periodicamente reintenta todas las
113-
peticiones fallidas hasta que todos los pods en el nodo afectado son terminados o hasta que el tiempo de espera,
113+
peticiones fallidas hasta que todos los Pods en el nodo afectado son terminados o hasta que el tiempo de espera,
114114
que puede ser configurado, es alcanzado.
115115

116116
Un PDB especifica el número de réplicas que una aplicación puede tolerar, relativo a cuantas
117117
se pretende tener. Por ejemplo, un Deployment que tiene un `.spec.replicas: 5` se
118-
supone que tiene 5 pods en cualquier momento. Si su PDB permite tener 4 a la vez,
118+
supone que tiene 5 Pods en cualquier momento. Si su PDB permite tener 4 a la vez,
119119
entonces la API de Desalojo va a permitir interrupciones voluntarias de uno (pero no de dos) Pod a la vez.
120120

121-
El grupo de pods que comprende a la aplicación está especificado usando una etiqueta selectora, la misma
121+
El grupo de Pods que comprende a la aplicación está especificado usando una etiqueta selectora, la misma
122122
que es usada por el controlador de aplicación (deployment, stateful-set, etc).
123123

124-
El número de pods "deseado" es calculado a partir de `.spec.replicas` del recurso de Workload
125-
que es manejado para esos pods. El plano de control descubre el recurso Workload perteneciente al
124+
El número de Pods "deseado" es calculado a partir de `.spec.replicas` del recurso de Workload
125+
que es manejado para esos Pods. El plano de control descubre el recurso Workload perteneciente al
126126
examinar las `.metadata.ownerReferences` del Pod.
127127

128128
Las [Interrupciones Involuntarias](#voluntary-and-involuntary-disruptions) no pueden ser prevenidas por los PDB; pero si
129129
son contabilizadas a partir de este presupuesto.
130130

131-
Los pods que son borrados o no están disponibles debido a una actualización continua de una aplicación forman parte del presupuesto de interrupciones, pero los recursos Workload (como los Deployments y StatefulSet)
131+
Los Pods que son borrados o no están disponibles debido a una actualización continua de una aplicación forman parte del presupuesto de interrupciones, pero los recursos Workload (como los Deployments y StatefulSet)
132132
no están limitados por los PDBs cuando se hacen actualizaciones continuas. En cambio, la administración de fallas
133133
durante la actualización de la aplicación está configurada en la especificación para este recurso Workload específico.
134134

135135
Cuando un Pod es eliminado usando la API de desalojo, este es
136-
[terminado](/docs/concepts/workloads/pods/pod-lifecycle/#pod-termination) correctamente, haciendo honor al
137-
`terminationGracePeriodSeconds` configurado en su [PodSpec](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#podspec-v1-core).
136+
[terminado](/docs/concepts/workloads/Pods/pod-lifecycle/#pod-termination) correctamente, haciendo honor al
137+
`terminationGracePeriodSeconds` configurado en su [PodSpec](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#Podspec-v1-core).
138138

139139
## Ejemplo de Presupuesto de Interrupción de POD {#pdb-example}
140140

141141
Considere un clúster con 3 nodos, `nodo-1` hasta `nodo-3`.
142142
El clúster está ejecutando varias aplicaciones. Uno de ellos tiene 3 replicas, que llamaremos
143143
`pod-a`, `pod-b`, y `pod-c`. Otro Pod no relacionado y sin PDB, llamado `pod-x`, también se muestra.
144144

145-
Inicialmente los pods están distribuidos de esta manera:
145+
Inicialmente los Pods están distribuidos de esta manera:
146146

147147

148148
| nodo-1 | nodo-2 | nodo-3 |
149149
|:--------------------:|:-------------------:|:------------------:|
150150
| pod-a *available* | pod-b *available* | pod-c *available* |
151151
| pod-x *available* | | |
152152

153-
Los 3 pods son parte de un Deployment, ellos colectivamente tienen un PDB que requiere
154-
que por lo menos 2 de los 3 pods estén disponibles en todo momento.
153+
Los 3 Pods son parte de un Deployment, ellos colectivamente tienen un PDB que requiere
154+
que por lo menos 2 de los 3 Pods estén disponibles en todo momento.
155155

156156
Por ejemplo, supongamos que el administrador del clúster quiere reiniciar para actualizar el kernel y solucionar un error.
157157
El administrador del clúster primero intenta drenar el `nodo-1` usando el comando `kubectl drain`.
158-
La herramienta intenta drenar los pods `pod-a` y `pod-x`. Esto tiene éxito inmediatamente.
159-
Ambos pods pasan al estado `terminating` al mismo tiempo.
158+
La herramienta intenta drenar los Pods `pod-a` y `pod-x`. Esto tiene éxito inmediatamente.
159+
Ambos Pods pasan al estado `terminating` al mismo tiempo.
160160
Esto pone al clúster en el siguiente estado:
161161

162162
| nodo-1 *draining* | nodo-2 | nodo-3 |
163163
|:--------------------:|:-------------------:|:------------------:|
164164
| pod-a *terminating* | pod-b *available* | pod-c *available* |
165165
| pod-x *terminating* | | |
166166

167-
El Deployment detecta que uno de los pods está terminando, entonces crea un reemplazo
167+
El Deployment detecta que uno de los Pods está terminando, entonces crea un reemplazo
168168
llamado `pod-d`. Dado que el `nodo-1` está bloqueado, el pod se inicia en otro nodo. Además,
169169
se crea el pod `pod-y` como reemplazo de `pod-x`.
170170

@@ -177,15 +177,15 @@ Ahora el clúster está en este estado:
177177
| pod-a *terminating* | pod-b *available* | pod-c *available* |
178178
| pod-x *terminating* | pod-d *starting* | pod-y *starting* |
179179

180-
En algún momento, los pods terminan y el clúster se ve así:
180+
En algún momento, los Pods terminan y el clúster se ve así:
181181

182182
| nodo-1 *drained* | nodo-2 | nodo-3 |
183183
|:--------------------:|:-------------------:|:------------------:|
184184
| | pod-b *available* | pod-c *available* |
185185
| | pod-d *starting* | pod-y *starting* |
186186

187187
En este estado, si un administrador del clúster impaciente intenta drenar el `nodo-2` o el
188-
`nodo-3`, el comando de drenado será bloqueado, porque solo hay 2 pods disponibles para
188+
`nodo-3`, el comando de drenado será bloqueado, porque solo hay 2 Pods disponibles para
189189
el Deployment y el PDB requiere al menos 2. Después de un tiempo, `pod-d` y `pod-y` están disponibles.
190190

191191
El estado del clúster ahora se ve así:
@@ -196,7 +196,7 @@ El estado del clúster ahora se ve así:
196196
| | pod-d *available* | pod-y *available* |
197197

198198
Ahora, el administrador del clúster drena el `nodo-2`.
199-
El comando de drenado intentará drenar los 2 pods en algún orden, digamos
199+
El comando de drenado intentará drenar los 2 Pods en algún orden, digamos
200200
primero `pod-b` y luego `pod-d`. Tendrá éxito en eliminar `pod-b`.
201201
Pero cuando intente drenar `pod-d`, será rechazado porque eso dejará
202202
solo un Pod disponible para el Deployment.
@@ -234,11 +234,11 @@ puede tener sentido en estos escenarios:
234234
hay una especialización natural de roles
235235
- Cuando se usa una herramienta de terceros o un servicio para automatizar el control del clúster
236236

237-
El presupuesto de interrupción de pods respalda esta separación de roles, proporcionando
237+
El presupuesto de interrupción de Pods respalda esta separación de roles, proporcionando
238238
una interfaz entre los roles.
239239

240240
Si no hay tal separación de responsabilidades en la organización,
241-
es posible que no sea necesario el Presupuesto de Interrupción de pods.
241+
es posible que no sea necesario el Presupuesto de Interrupción de Pods.
242242

243243
## Cómo realizar Acciones Disruptivas en el Clúster
244244

@@ -263,7 +263,7 @@ los nodos del clúster, como una actualización de nodo o de software, estas son
263263
## {{% heading "whatsnext" %}}
264264

265265

266-
* Siga los pasos para proteger su aplicación con [configurar el Presupuesto de Interrupciones de pods](/docs/tasks/run-application/configure-pdb/).
266+
* Siga los pasos para proteger su aplicación con [configurar el Presupuesto de Interrupciones de Pods](/docs/tasks/run-application/configure-pdb/).
267267

268268
* Aprenda más sobre [drenar nodos](/docs/tasks/administer-cluster/safely-drain-node/).
269269

0 commit comments

Comments
 (0)