Skip to content

Commit 0887c1e

Browse files
authored
Merge pull request #42620 from jonathino2590/main
[ES] Fix typos and grammar issues in disruptions file
2 parents 1de4c16 + c4e1571 commit 0887c1e

File tree

1 file changed

+83
-84
lines changed

1 file changed

+83
-84
lines changed

content/es/docs/concepts/workloads/pods/disruptions.md

Lines changed: 83 additions & 84 deletions
Original file line numberDiff line numberDiff line change
@@ -11,35 +11,35 @@ weight: 60
1111
<!-- overview -->
1212
Esta guía es para los dueños de aplicaciones que quieren crear
1313
aplicaciones con alta disponibilidad y que necesitan entender
14-
que tipos de interrupciones pueden suceder en los Pods.
14+
qué tipos de interrupciones pueden suceder en los Pods.
1515

16-
También es para los administradores de clústers que quieren aplicar acciones
17-
automatizadas en sus clústers, cómo actualizar o autoescalar los clústers.
16+
También es para los administradores de clústeres que quieren aplicar acciones
17+
automatizadas en sus clústeres, como actualizar o autoescalar los clústeres.
1818

1919
<!-- body -->
2020

2121
## Interrupciones voluntarias e involuntarias
2222

2323
Los Pods no desaparecen hasta que algo (una persona o un controlador) los destruye
24-
ó hay problemas de hardware ó software que son inevitables.
24+
o hay problemas de hardware o software que son inevitables.
2525

2626
Nosotros llamamos a esos casos inevitables *interrupciones involuntarias* de
2727
una aplicación. Algunos ejemplos:
2828

29-
- Una falla en hardware de la máquina física del nodo
30-
- Un administrador del clúster borra una VM (instancia) por error
31-
- El proveedor de la nube o el hipervisor falla y hace desaparecer la VM
32-
- Un kernel panic
33-
- El nodo desaparece del clúster por un problema de red que lo separa del clúster
29+
- Una falla en el hardware de la máquina física del nodo.
30+
- Un administrador del clúster borra una VM (instancia) por error.
31+
- El proveedor de la nube o el hipervisor falla y hace desaparecer la VM.
32+
- Un kernel panic.
33+
- El nodo desaparece del clúster por un problema de red que lo separa del clúster.
3434
- Una remoción del Pod porque el nodo [no tiene recursos suficientes](/docs/concepts/scheduling-eviction/node-pressure-eviction/).
3535

3636
A excepción de la condición sin recursos suficientes, todas estas condiciones
3737
deben ser familiares para la mayoría de los usuarios, no son específicas
38-
de Kubernetes
38+
de Kubernetes.
3939

4040
Nosotros llamamos a los otros casos *interrupciones voluntarias*. Estas incluyen
4141
las acciones iniciadas por el dueño de la aplicación y aquellas iniciadas por el Administrador
42-
del Clúster. Las acciones típicas de los dueños de la aplicación incluye:
42+
del Clúster. Las acciones típicas de los dueños de la aplicación incluyen:
4343

4444
- borrar el Deployment u otro controlador que maneja el Pod
4545
- actualizar el Deployment del Pod que causa un reinicio
@@ -48,15 +48,14 @@ del Clúster. Las acciones típicas de los dueños de la aplicación incluye:
4848
Las acciones del administrador del clúster incluyen:
4949

5050
- [Drenar un nodo](/docs/tasks/administer-cluster/safely-drain-node/) para reparar o actualizar.
51-
- Drenar un nodo del clúster para reducir el clúster (aprenda acerca de [Autoescalamiento de Clúster](https://github.com/kubernetes/autoscaler/#readme)
52-
).
51+
- Drenar un nodo del clúster para reducir el clúster (aprenda acerca de [Autoescalamiento de Clúster](https://github.com/kubernetes/autoscaler/#readme)).
5352
- Remover un Pod de un nodo para permitir que otra cosa pueda ingresar a ese nodo.
5453

5554
Estas acciones pueden ser realizadas directamente por el administrador del clúster, por
56-
tareas automatizadas del administrador del clúster ó por el proveedor del clúster.
55+
tareas automatizadas del administrador del clúster o por el proveedor del clúster.
5756

58-
Consulte al administrador de su clúster, a su proveedor de la nube ó a la documentación de su distribución
59-
para determinar si alguna de estas interrupciones voluntarias están habilitadas en su clúster.
57+
Consulte al administrador de su clúster, a su proveedor de la nube o a la documentación de su distribución
58+
para determinar si alguna de estas interrupciones voluntarias está habilitada en su clúster.
6059
Si ninguna se encuentra habilitada, puede omitir la creación del presupuesto de Interrupción de Pods.
6160

6261
{{< caution >}}
@@ -104,46 +103,46 @@ asegurarse que el número de réplicas atendiendo al tráfico nunca puede caer b
104103
porcentaje del total.
105104

106105
Los administradores del clúster y proveedores de hosting pueden usar herramientas que
107-
respeten el presupuesto de interrupción de Pods utilizando la [API de Desalojo](/docs/tasks/administer-clúster/safely-drain-node/#eviction-api)
106+
respeten el presupuesto de interrupción de Pods utilizando la [API de Desalojo](/docs/tasks/administer-cluster/safely-drain-node/#eviction-api)
108107
en vez de directamente borrar Pods o Deployments.
109108

110109
Por ejemplo, el subcomando `kubectl drain` le permite marcar un nodo a un modo fuera de
111110
servicio. Cuando se ejecuta `kubectl drain`, la herramienta trata de quitar a todos los Pods en
112111
el nodo que se esta dejando fuera de servicio. La petición de desalojo que `kubectl` solicita en
113112
su nombre puede ser temporalmente denegado, entonces la herramienta periodicamente reintenta todas las
114-
peticiones fallidas hasta que todos los Pods en el nodo afectado son terminados ó hasta que el tiempo de espera,
113+
peticiones fallidas hasta que todos los Pods en el nodo afectado son terminados o hasta que el tiempo de espera,
115114
que puede ser configurado, es alcanzado.
116115

117116
Un PDB especifica el número de réplicas que una aplicación puede tolerar, relativo a cuantas
118117
se pretende tener. Por ejemplo, un Deployment que tiene un `.spec.replicas: 5` se
119118
supone que tiene 5 Pods en cualquier momento. Si su PDB permite tener 4 a la vez,
120-
entonces la API de Desalojo va a permitir interrupciones voluntarias de un (pero no a dos) Pod a la vez.
119+
entonces la API de Desalojo va a permitir interrupciones voluntarias de uno (pero no de dos) Pod a la vez.
121120

122-
El grupo de Pods que comprende a la aplicación esta especificada usando una etiqueta selectora, la misma
121+
El grupo de Pods que comprende a la aplicación está especificado usando una etiqueta selectora, la misma
123122
que es usada por el controlador de aplicación (deployment, stateful-set, etc).
124123

125-
El numero de Pods "deseado" es calculado a partir de `.spec.replicas` de el recurso de Workload
126-
que es manejado para esos Pods. El plano de control descubre el recurso Workload perteneciente a el
127-
examinando las `.metadata.ownerReferences` del Pod.
124+
El número de Pods "deseado" es calculado a partir de `.spec.replicas` del recurso de Workload
125+
que es manejado para esos Pods. El plano de control descubre el recurso Workload perteneciente al
126+
examinar las `.metadata.ownerReferences` del Pod.
128127

129128
Las [Interrupciones Involuntarias](#voluntary-and-involuntary-disruptions) no pueden ser prevenidas por los PDB; pero si
130-
son contabilizadas a partir este presupuesto.
129+
son contabilizadas a partir de este presupuesto.
131130

132-
Los Pods que son borrados o no estan disponibles debido a una actualización continua de una aplicación forman parte del presupuesto de interrupciones, pero los recursos Workload (como los Deployments y StatefulSet)
131+
Los Pods que son borrados o no están disponibles debido a una actualización continua de una aplicación forman parte del presupuesto de interrupciones, pero los recursos Workload (como los Deployments y StatefulSet)
133132
no están limitados por los PDBs cuando se hacen actualizaciones continuas. En cambio, la administración de fallas
134-
durante la actualización de la aplicación es configurada en la especificación para este recurso Workload específico.
133+
durante la actualización de la aplicación está configurada en la especificación para este recurso Workload específico.
135134

136-
Cuando un Pod es quitado usando la API de desalojo, este es
137-
[terminado](/docs/concepts/workloads/pods/pod-lifecycle/#pod-termination) correctamente, haciendo honor al
138-
`terminationGracePeriodSeconds` configurado en su [PodSpec](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#podspec-v1-core).
135+
Cuando un Pod es eliminado usando la API de desalojo, este es
136+
[terminado](/docs/concepts/workloads/Pods/pod-lifecycle/#pod-termination) correctamente, haciendo honor al
137+
`terminationGracePeriodSeconds` configurado en su [PodSpec](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#Podspec-v1-core).
139138

140139
## Ejemplo de Presupuesto de Interrupción de POD {#pdb-example}
141140

142141
Considere un clúster con 3 nodos, `nodo-1` hasta `nodo-3`.
143-
El clúster esta corriendo varias aplicaciones. Uno de ellos tiene 3 replicas, que llamaremos
142+
El clúster está ejecutando varias aplicaciones. Uno de ellos tiene 3 replicas, que llamaremos
144143
`pod-a`, `pod-b`, y `pod-c`. Otro Pod no relacionado y sin PDB, llamado `pod-x`, también se muestra.
145144

146-
Inicialmente los pods estan distribuidos de esta manera:
145+
Inicialmente los Pods están distribuidos de esta manera:
147146

148147

149148
| nodo-1 | nodo-2 | nodo-3 |
@@ -152,110 +151,110 @@ Inicialmente los pods estan distribuidos de esta manera:
152151
| pod-x *available* | | |
153152

154153
Los 3 Pods son parte de un Deployment, ellos colectivamente tienen un PDB que requiere
155-
que por lo menos 2 de los 3 Pods esten disponibles todo el tiempo.
154+
que por lo menos 2 de los 3 Pods estén disponibles en todo momento.
156155

157-
Por ejemplo, supongamos que el administrador del clúster quiere reiniciar para actualizar el kernel y arreglar un bug.
158-
El administrador del clúster primero intenta desocupar el `nodo-1` usando el comando `kubectl drain`.
159-
La herramienta intenta desalojar a los pods `pod-a` y `pod-x`. Esto tiene éxito inmediatamente.
160-
Ambos Pods van al estado `terminating` al mismo tiempo.
161-
Pone al clúster en el siguiente estado:
156+
Por ejemplo, supongamos que el administrador del clúster quiere reiniciar para actualizar el kernel y solucionar un error.
157+
El administrador del clúster primero intenta drenar el `nodo-1` usando el comando `kubectl drain`.
158+
La herramienta intenta drenar los Pods `pod-a` y `pod-x`. Esto tiene éxito inmediatamente.
159+
Ambos Pods pasan al estado `terminating` al mismo tiempo.
160+
Esto pone al clúster en el siguiente estado:
162161

163162
| nodo-1 *draining* | nodo-2 | nodo-3 |
164163
|:--------------------:|:-------------------:|:------------------:|
165164
| pod-a *terminating* | pod-b *available* | pod-c *available* |
166165
| pod-x *terminating* | | |
167166

168-
El Deployment detecta que uno de los Pods esta terminando, entonces crea un reemplazo
169-
llamado `pod-d`. Como el `nodo-1` esta bloqueado, el pod termina en otro nodo. Algo más, adicionalmente
170-
a creado el pod `pod-y` como un reemplazo del `pod-x` .
167+
El Deployment detecta que uno de los Pods está terminando, entonces crea un reemplazo
168+
llamado `pod-d`. Dado que el `nodo-1` está bloqueado, el pod se inicia en otro nodo. Además,
169+
se crea el pod `pod-y` como reemplazo de `pod-x`.
171170

172-
(Nota: para un StatefulSet, `pod-a`, el cual debería ser llamado algo como `pod-0`, necesitaría ser terminado completamente antes de su remplazo, el cual también es llamado `pod-0` pero tiene un UID diferente, podría ser creado. De lo contrario, el ejemplo también aplica a un StatefulSet.)
171+
(Nota: para un StatefulSet, `pod-a`, que debería llamarse algo como `pod-0`, debe terminar completamente antes de su reemplazo, que también se llama `pod-0` pero tiene un UID diferente, puede ser creado. De lo contrario, el ejemplo también se aplica a un StatefulSet).
173172

174-
Ahora el clúster esta en este estado:
173+
Ahora el clúster está en este estado:
175174

176175
| nodo-1 *draining* | nodo-2 | nodo-3 |
177176
|:--------------------:|:-------------------:|:------------------:|
178177
| pod-a *terminating* | pod-b *available* | pod-c *available* |
179-
| pod-x *terminating* | pod-d *starting* | pod-y |
178+
| pod-x *terminating* | pod-d *starting* | pod-y *starting* |
180179

181-
En algún punto, los Pods finalizan y el clúster se ve de esta forma:
180+
En algún momento, los Pods terminan y el clúster se ve así:
182181

183182
| nodo-1 *drained* | nodo-2 | nodo-3 |
184183
|:--------------------:|:-------------------:|:------------------:|
185184
| | pod-b *available* | pod-c *available* |
186-
| | pod-d *starting* | pod-y |
185+
| | pod-d *starting* | pod-y *starting* |
187186

188-
En este estado, si un administrador del clúster impaciente intenta desalojar el `nodo-2` ó el
189-
`nodo-3`, el comando drain va a ser bloqueado, porque hay solamente 2 Pods disponibles para
190-
el Deployment y el PDB requiere por lo menos 2. Después de pasado un tiempo el `pod-d` esta disponible.
187+
En este estado, si un administrador del clúster impaciente intenta drenar el `nodo-2` o el
188+
`nodo-3`, el comando de drenado será bloqueado, porque solo hay 2 Pods disponibles para
189+
el Deployment y el PDB requiere al menos 2. Después de un tiempo, `pod-d` y `pod-y` están disponibles.
191190

192191
El estado del clúster ahora se ve así:
193192

194193
| nodo-1 *drained* | nodo-2 | nodo-3 |
195194
|:--------------------:|:-------------------:|:------------------:|
196195
| | pod-b *available* | pod-c *available* |
197-
| | pod-d *available* | pod-y |
196+
| | pod-d *available* | pod-y *available* |
198197

199-
Ahora, el administrador del clúster desaloja el `nodo-2`.
200-
El comando drain tratará de desalojar a los 2 Pods con algún orden, digamos
201-
primero el `pod-b` y después el `pod-d`. Va a tener éxito en quitar el `pod-b`.
202-
Pero cuando intente desalojar al `pod-d`, va a ser rechazado porque esto va a dejar
203-
un Pod solamente disponible para el Deployment.
198+
Ahora, el administrador del clúster drena el `nodo-2`.
199+
El comando de drenado intentará drenar los 2 Pods en algún orden, digamos
200+
primero `pod-b` y luego `pod-d`. Tendrá éxito en eliminar `pod-b`.
201+
Pero cuando intente drenar `pod-d`, será rechazado porque eso dejará
202+
solo un Pod disponible para el Deployment.
204203

205-
El Deployment crea un reemplazo para el `pod-b` llamado `pod-e`.
206-
Porque no hay recursos suficientes disponibles en el clúster para programar
207-
el `pod-e` el desalojo será bloqueado nuevamente. El clúster va a terminar en este
204+
El Deployment crea un reemplazo para `pod-b` llamado `pod-e`.
205+
Dado que no hay suficientes recursos disponibles en el clúster para programar
206+
`pod-e`, el drenado será bloqueado nuevamente. El clúster terminará en este
208207
estado:
209208

210209
| nodo-1 *drained* | nodo-2 | nodo-3 | *no node* |
211210
|:--------------------:|:-------------------:|:------------------:|:------------------:|
212211
| | pod-b *terminating* | pod-c *available* | pod-e *pending* |
213-
| | pod-d *available* | pod-y | |
212+
| | pod-d *available* | pod-y *available* | |
214213

215214
Ahora, el administrador del clúster necesita
216215
agregar un nuevo nodo en el clúster para continuar con la actualización.
217216

218-
Usted puede ver como Kubernetes varia la tasa a la que las interrupciones
219-
pueden suceder, en función de:
217+
Usted puede ver cómo Kubernetes varía la tasa a la que ocurren las interrupciones,
218+
según:
220219

221-
- cuantas réplicas una aplicación necesita
222-
- cuanto toma apagar una instancia de manera correcta
223-
- cuanto tiempo toma que una nueva instancia inicie
220+
- cuántas réplicas necesita una aplicación
221+
- cuánto tiempo lleva apagar una instancia correctamente
222+
- cuánto tiempo lleva iniciar una nueva instancia
224223
- el tipo de controlador
225224
- la capacidad de recursos del clúster
226225

227-
## Separando al dueño del Clúster y los roles de dueños de la Aplicación
226+
## Separación entre el dueño del Clúster y los roles de dueños de la Aplicación
228227

229228
Muchas veces es útil pensar en el Administrador del Clúster
230229
y al dueño de la aplicación como roles separados con conocimiento limitado
231230
el uno del otro. Esta separación de responsabilidades
232231
puede tener sentido en estos escenarios:
233232

234-
- Cuando hay muchas equipos con aplicaciones compartiendo un clúster de Kubernetes y
233+
- Cuando hay muchos equipos con aplicaciones compartiendo un clúster de Kubernetes y
235234
hay una especialización natural de roles
236-
- Cuando una herramienta de terceros o servicio es usado para automatizar el control del clúster
235+
- Cuando se usa una herramienta de terceros o un servicio para automatizar el control del clúster
237236

238-
El presupuesto de interrupción de Pods soporta esta separación de roles, ofreciendo
237+
El presupuesto de interrupción de Pods respalda esta separación de roles, proporcionando
239238
una interfaz entre los roles.
240239

241-
Si no se tiene tal separación de responsabilidades en la organización,
242-
posiblemente no se necesite el Presupuesto de Interrupción de Pods.
240+
Si no hay tal separación de responsabilidades en la organización,
241+
es posible que no sea necesario el Presupuesto de Interrupción de Pods.
243242

244-
## Como realizar Acciones Disruptivas en el Clúster
243+
## Cómo realizar Acciones Disruptivas en el Clúster
245244

246-
Si usted es el Administrador del Clúster y necesita realizar una acción disruptiva en todos
247-
los nodos en el clúster, como ser una actualización de nodo o de software, estas son algunas de las opciones:
245+
Si usted es el Administrador del Clúster y necesitas realizar una acción disruptiva en todos
246+
los nodos del clúster, como una actualización de nodo o de software, estas son algunas de las opciones:
248247

249-
- Aceptar el tiempo sin funcionar mientras dura la actualización.
250-
- Conmutar a otra replica completa del clúster.
251-
- No hay tiempo sin funcionar, pero puede ser costoso tener duplicados los nodos
252-
y tambien un esfuerzo humano para orquestar dicho cambio.
253-
- Escribir la toleracia a la falla de la aplicación y usar PDBs.
254-
- No hay tiempo sin funcionar.
255-
- Duplicación de recursos mínimo.
256-
- Permite mucha más automatización de la administración del clúster.
257-
- Escribir aplicaciones que tengan tolerancia a fallas es complicado, pero el trabajo para tolerar interrupciones
258-
involuntarias, largamente se sobrepone con el trabajo que es dar soporte a autoescalamientos y tolerar
248+
- Aceptar el tiempo de inactividad mientras dura la actualización.
249+
- Cambiar a otra réplica completa del clúster.
250+
- No hay tiempo de inactividad, pero puede ser costoso tener duplicados los nodos
251+
y también se requiere esfuerzo humano para orquestar dicho cambio.
252+
- Diseñar la tolerancia a fallas en la aplicación y usar PDBs.
253+
- No hay tiempo de inactividad.
254+
- Duplicación mínima de recursos.
255+
- Permite mucha más automatización en la administración del clúster.
256+
- Diseñar aplicaciones para tolerar fallas es complicado, pero el trabajo para tolerar interrupciones
257+
involuntarias a menudo vale la pena en comparación con el trabajo de admitir autoescalado y tolerar
259258
interrupciones involuntarias.
260259

261260

@@ -266,8 +265,8 @@ los nodos en el clúster, como ser una actualización de nodo o de software, est
266265

267266
* Siga los pasos para proteger su aplicación con [configurar el Presupuesto de Interrupciones de Pods](/docs/tasks/run-application/configure-pdb/).
268267

269-
* Aprenda más sobre [desalojar nodos](/docs/tasks/administer-clúster/safely-drain-node/)
268+
* Aprenda más sobre [drenar nodos](/docs/tasks/administer-cluster/safely-drain-node/).
270269

271270
* Aprenda sobre [actualizar un Deployment](/docs/concepts/workloads/controllers/deployment/#updating-a-deployment)
272-
incluyendo los pasos para mantener su disponibilidad mientras dura la actualización.
271+
incluyendo los pasos para mantener su disponibilidad durante la actualización.
273272

0 commit comments

Comments
 (0)