Skip to content

Commit ba4cf5f

Browse files
authored
Update content/pt/docs/concepts/scheduling-eviction/ (#26924)
* Move pod-overhead.md to schedulling-eviction * Add pod-overhead.md translation * Update content/pt/docs/concepts/scheduling-eviction/pod-overhead.md * Fix name: test-Pod to name: test-pod * Small fixes * remove reviewers * change 'fonte' to 'código fonte' * Add the suggestion by code review * Update the references with the original doc * Update the _index.md
1 parent 35eea8d commit ba4cf5f

File tree

4 files changed

+53
-52
lines changed

4 files changed

+53
-52
lines changed
Lines changed: 8 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,8 @@
1+
---
2+
title: "Escalonamento"
3+
weight: 90
4+
description: >
5+
No Kubernetes, agendamento refere-se a garantia de que os pods correspondam aos nós para que o kubelet possa executá-los.
6+
Remoção é o processo de falha proativa de um ou mais pods em nós com falta de recursos.
7+
---
8+

content/pt/docs/concepts/scheduling/kube-scheduler.md renamed to content/pt/docs/concepts/scheduling-eviction/kube-scheduler.md

Lines changed: 4 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -91,4 +91,7 @@ do escalonador:
9191
* Aprenda como [configurar vários escalonadores](/docs/tasks/administer-cluster/configure-multiple-schedulers/)
9292
* Aprenda sobre [políticas de gerenciamento de topologia](/docs/tasks/administer-cluster/topology-manager/)
9393
* Aprenda sobre [Pod Overhead](/docs/concepts/configuration/pod-overhead/)
94-
94+
* Saiba mais sobre o agendamento de pods que usam volumes em:
95+
* [Suporte de topologia de volume](/docs/concepts/storage/storage-classes/#volume-binding-mode)
96+
* [Rastreamento de capacidade de armazenamento](/docs/concepts/storage/storage-capacity/)
97+
* [Limites de volumes específicos do nó](/docs/concepts/storage/storage-limits/)

content/pt/docs/concepts/configuration/pod-overhead.md renamed to content/pt/docs/concepts/scheduling-eviction/pod-overhead.md

Lines changed: 41 additions & 46 deletions
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,5 @@
11
---
2-
reviewers:
3-
- dchen1107
4-
- egernst
5-
- tallclair
6-
title: Pod Overhead
2+
title: Sobrecarga de Pod
73
content_type: concept
84
weight: 50
95
---
@@ -12,38 +8,38 @@ weight: 50
128

139
{{< feature-state for_k8s_version="v1.18" state="beta" >}}
1410

15-
Quando executa um Pod num nó, o próprio Pod usa uma quantidade de recursos do sistema. Estes
16-
recursos são adicionais aos recursos necessários para executar o(s) _container(s)_ dentro do Pod.
11+
Quando você executa um Pod num nó, o próprio Pod usa uma quantidade de recursos do sistema. Estes
12+
recursos são adicionais aos recursos necessários para executar o(s) contêiner(s) dentro do Pod.
1713
Sobrecarga de Pod, do inglês _Pod Overhead_, é uma funcionalidade que serve para contabilizar os recursos consumidos pela
18-
infraestrutura do Pod para além das solicitações e limites do _container_.
14+
infraestrutura do Pod para além das solicitações e limites do contêiner.
1915

2016

2117

2218

2319

2420
<!-- body -->
2521

26-
No Kubernetes, a sobrecarga de _Pods_ é definido no tempo de
22+
No Kubernetes, a sobrecarga de Pods é definido no tempo de
2723
[admissão](/docs/reference/access-authn-authz/extensible-admission-controllers/#what-are-admission-webhooks)
2824
de acordo com a sobrecarga associada à
29-
[RuntimeClass](/docs/concepts/containers/runtime-class/) do _Pod_.
25+
[RuntimeClass](/docs/concepts/containers/runtime-class/) do Pod.
3026

3127
Quando é ativada a Sobrecarga de Pod, a sobrecarga é considerada adicionalmente à soma das
32-
solicitações de recursos do _container_ ao agendar um Pod. Semelhantemente, o _kubelet_
28+
solicitações de recursos do contêiner ao agendar um Pod. Semelhantemente, o _kubelet_
3329
incluirá a sobrecarga do Pod ao dimensionar o cgroup do Pod e ao
34-
executar a classificação de despejo do Pod.
30+
executar a classificação de prioridade de migração do Pod em caso de _drain_ do Node.
3531

36-
## Possibilitando a Sobrecarga do Pod {#set-up}
32+
## Habilitando a Sobrecarga de Pod {#set-up}
3733

38-
Terá de garantir que o [portão de funcionalidade](/docs/reference/command-line-tools-reference/feature-gates/)
39-
`PodOverhead` está ativo (está ativo por defeito a partir da versão 1.18)
40-
por todo o cluster, e uma `RuntimeClass` é utilizada que defina o campo `overhead`.
34+
Terá de garantir que o [Feature Gate](/docs/reference/command-line-tools-reference/feature-gates/)
35+
`PodOverhead` esteja ativo (está ativo por padrão a partir da versão 1.18)
36+
em todo o cluster, e uma `RuntimeClass` utilizada que defina o campo `overhead`.
4137

4238
## Exemplo de uso
4339

4440
Para usar a funcionalidade PodOverhead, é necessário uma RuntimeClass que define o campo `overhead`.
45-
Por exemplo, poderia usar a definição da RuntimeClass abaixo com um _container runtime_ virtualizado
46-
que usa cerca de 120MiB por Pod para a máquina virtual e o sistema operativo convidado:
41+
Por exemplo, poderia usar a definição da RuntimeClass abaixo com um agente de execução de contêiner virtualizado
42+
que use cerca de 120MiB por Pod para a máquina virtual e o sistema operacional convidado:
4743

4844
```yaml
4945
---
@@ -88,9 +84,9 @@ spec:
8884
memory: 100Mi
8985
```
9086

91-
Na altura de admissão o [controlador de admissão](https://kubernetes.io/docs/reference/access-authn-authz/admission-controllers/) RuntimeClass
87+
No tempo de admissão o [controlador de admissão](https://kubernetes.io/docs/reference/access-authn-authz/admission-controllers/) RuntimeClass
9288
atualiza o _PodSpec_ da carga de trabalho de forma a incluir o `overhead` como descrito na RuntimeClass. Se o _PodSpec_ já tiver este campo definido
93-
o _Pod_ será rejeitado. No exemplo dado, como apenas o nome do RuntimeClass é especificado, o controlador de admissão muda o _Pod_ de forma a
89+
o Pod será rejeitado. No exemplo dado, como apenas o nome do RuntimeClass é especificado, o controlador de admissão muda o Pod de forma a
9490
incluir um `overhead`.
9591

9692
Depois do controlador de admissão RuntimeClass, pode verificar o _PodSpec_ atualizado:
@@ -99,44 +95,43 @@ Depois do controlador de admissão RuntimeClass, pode verificar o _PodSpec_ atua
9995
kubectl get pod test-pod -o jsonpath='{.spec.overhead}'
10096
```
10197

102-
O output é:
98+
A saída é:
10399
```
104100
map[cpu:250m memory:120Mi]
105101
```
106102

107-
Se for definido um _ResourceQuota_, a soma dos pedidos dos _containers_ assim como o campo `overhead` são contados.
103+
Se for definido um _ResourceQuota_, a soma das requisições dos contêineres assim como o campo `overhead` são contados.
108104

109-
Quando o kube-scheduler está a decidir que nó deve executar um novo _Pod_, o agendador considera o `overhead` do _Pod_,
110-
assim como a soma de pedidos aos _containers_ para esse _Pod_. Para este exemplo, o agendador adiciona os
111-
pedidos e a sobrecarga, depois procura um nó com 2.25 CPU e 320 MiB de memória disponível.
105+
Quando o kube-scheduler está decidindo que nó deve executar um novo Pod, o agendador considera o `overhead` do pod,
106+
assim como a soma de pedidos aos contêineres para esse _Pod_. Para este exemplo, o agendador adiciona as requisições e a sobrecarga, depois procura um nó com 2.25 CPU e 320 MiB de memória disponível.
112107

113-
Assim que um _Pod_ é agendado a um nó, o kubelet nesse nó cria um novo {{< glossary_tooltip text="cgroup" term_id="cgroup" >}}
114-
para o _Pod_. É dentro deste _pod_ que o _container runtime_ subjacente vai criar _containers_.
108+
Assim que um Pod é agendado a um nó, o kubelet nesse nó cria um novo {{< glossary_tooltip text="cgroup" term_id="cgroup" >}}
109+
para o Pod. É dentro deste Pod que o agente de execução de contêiners subjacente vai criar contêineres.
115110

116-
Se o recurso tiver um limite definido para cada _container_ (_QoS_ garantida ou _Burstrable QoS_ com limites definidos),
117-
o kubelet definirá um limite superior para o cgroup do _pod_ associado a esse recurso (cpu.cfs_quota_us para CPU
118-
e memory.limit_in_bytes de memória). Este limite superior é baseado na soma dos limites do _container_ mais o `overhead`
111+
Se o recurso tiver um limite definido para cada contêiner (_QoS_ garantida ou _Burstrable QoS_ com limites definidos),
112+
o kubelet definirá um limite superior para o cgroup do Pod associado a esse recurso (cpu.cfs_quota_us para CPU
113+
e memory.limit_in_bytes de memória). Este limite superior é baseado na soma dos limites do contêiner mais o `overhead`
119114
definido no _PodSpec_.
120115

121-
Para o CPU, se o _Pod_ for QoS garantida ou _Burstrable QoS_, o kubelet vai definir `cpu.shares` baseado na soma dos
122-
pedidos ao _container_ mais o `overhead` definido no _PodSpec_.
116+
Para CPU, se o Pod for QoS garantida ou _Burstrable QoS_, o kubelet vai definir `cpu.shares` baseado na soma dos
117+
pedidos ao contêiner mais o `overhead` definido no _PodSpec_.
123118

124-
Olhando para o nosso exemplo, verifique os pedidos ao _container_ para a carga de trabalho:
119+
Olhando para o nosso exemplo, verifique as requisições ao contêiner para a carga de trabalho:
125120
```bash
126121
kubectl get pod test-pod -o jsonpath='{.spec.containers[*].resources.limits}'
127122
```
128123

129-
O total de pedidos ao _container_ são 2000m CPU e 200MiB de memória:
124+
O total de requisições ao contêiner são 2000m CPU e 200MiB de memória:
130125
```
131126
map[cpu: 500m memory:100Mi] map[cpu:1500m memory:100Mi]
132127
```
133128

134-
Verifique isto contra o que é observado pelo nó:
129+
Verifique isto comparado ao que é observado pelo nó:
135130
```bash
136131
kubectl describe node | grep test-pod -B2
137132
```
138133

139-
O output mostra que 2250m CPU e 320MiB de memória são solicitados, que inclui _PodOverhead_:
134+
A saída mostra que 2250m CPU e 320MiB de memória são solicitados, que inclui _PodOverhead_:
140135
```
141136
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits AGE
142137
--------- ---- ------------ ---------- --------------- ------------- ---
@@ -145,12 +140,12 @@ O output mostra que 2250m CPU e 320MiB de memória são solicitados, que inclui
145140

146141
## Verificar os limites cgroup do Pod
147142

148-
Verifique os cgroups de memória do Pod no nó onde a carga de trabalho está em execução. No seguinte exemplo, [`crictl`] (https://github.com/kubernetes-sigs/cri-tools/blob/master/docs/crictl.md)
149-
é usado no nó, que fornece uma CLI para _container runtimes_ compatíveis com CRI. Isto é um
150-
exemplo avançado para mostrar o comportamento do _PodOverhead_, e não é esperado que os utilizadores precisem de verificar
143+
Verifique os cgroups de memória do Pod no nó onde a carga de trabalho está em execução. No seguinte exemplo, [`crictl`](https://github.com/kubernetes-sigs/cri-tools/blob/master/docs/crictl.md)
144+
é usado no nó, que fornece uma CLI para agentes de execução compatíveis com CRI. Isto é um
145+
exemplo avançado para mostrar o comportamento do _PodOverhead_, e não é esperado que os usuários precisem verificar
151146
cgroups diretamente no nó.
152147

153-
Primeiro, no nó em particular, determine o identificador do _Pod_:
148+
Primeiro, no nó em particular, determine o identificador do Pod:
154149

155150
```bash
156151
# Execute no nó onde o Pod está agendado
@@ -163,15 +158,15 @@ A partir disto, pode determinar o caminho do cgroup para o _Pod_:
163158
sudo crictl inspectp -o=json $POD_ID | grep cgroupsPath
164159
```
165160

166-
O caminho do cgroup resultante inclui o _container_ `pause` do _Pod_. O cgroup no nível do _Pod_ está um diretório acima.
161+
O caminho do cgroup resultante inclui o contêiner `pause` do Pod. O cgroup no nível do Pod está um diretório acima.
167162
```
168163
"cgroupsPath": "/kubepods/podd7f4b509-cf94-4951-9417-d1087c92a5b2/7ccf55aee35dd16aca4189c952d83487297f3cd760f1bbf09620e206e7d0c27a"
169164
```
170165
171-
Neste caso especifico, o caminho do cgroup do pod é `kubepods/podd7f4b509-cf94-4951-9417-d1087c92a5b2`. Verifique a configuração cgroup de nível do _Pod_ para a memória:
166+
Neste caso especifico, o caminho do cgroup do Pod é `kubepods/podd7f4b509-cf94-4951-9417-d1087c92a5b2`. Verifique a configuração cgroup de nível do Pod para a memória:
172167
```bash
173168
# Execute no nó onde o Pod está agendado
174-
# Mude também o nome do cgroup de forma a combinar com o cgroup alocado ao pod.
169+
# Mude também o nome do cgroup para combinar com o cgroup alocado ao Pod.
175170
cat /sys/fs/cgroup/memory/kubepods/podd7f4b509-cf94-4951-9417-d1087c92a5b2/memory.limit_in_bytes
176171
```
177172

@@ -182,10 +177,10 @@ Isto é 320 MiB, como esperado:
182177

183178
### Observabilidade
184179

185-
Uma métrica `kube_pod_overhead` está disponível em [kube-state-metrics] (https://github.com/kubernetes/kube-state-metrics)
186-
para ajudar a identificar quando o _PodOverhead_ está a ser utilizado e para ajudar a observar a estabilidade das cargas de trabalho
180+
Uma métrica `kube_pod_overhead` está disponível em [kube-state-metrics](https://github.com/kubernetes/kube-state-metrics)
181+
para ajudar a identificar quando o _PodOverhead_ está sendo utilizado e para ajudar a observar a estabilidade das cargas de trabalho
187182
em execução com uma sobrecarga (_Overhead_) definida. Esta funcionalidade não está disponível na versão 1.9 do kube-state-metrics,
188-
mas é esperado num próximo _release_. Os utilizadores necessitarão entretanto de construir kube-state-metrics a partir da fonte.
183+
mas é esperado em uma próxima versão. Os usuários necessitarão entretanto construir o kube-state-metrics a partir do código fonte.
189184

190185

191186

content/pt/docs/concepts/scheduling/_index.md

Lines changed: 0 additions & 5 deletions
This file was deleted.

0 commit comments

Comments
 (0)