Skip to content

Commit 9e182b6

Browse files
Apply suggestions from code review
Co-authored-by: Giri Kuncoro <[email protected]>
1 parent 959f1a3 commit 9e182b6

File tree

1 file changed

+44
-44
lines changed

1 file changed

+44
-44
lines changed

content/id/docs/tasks/access-application-cluster/create-external-load-balancer.md

Lines changed: 44 additions & 44 deletions
Original file line numberDiff line numberDiff line change
@@ -7,19 +7,19 @@ weight: 80
77

88
{{% capture overview %}}
99

10-
Halaman ini menjelaskan bagaimana membuat _Load Balancer_ Eksternal.
10+
Laman ini menjelaskan bagaimana membuat _Load Balancer_ Eksternal.
1111

1212
{{< note >}}
13-
Fitur ini hanya tersedia untuk penyedia _cloud_ atau lingkungan yang mendukung _load balancer_ eksternal.
13+
Fitur ini hanya tersedia untuk penyedia cloud atau lingkungan yang mendukung _load balancer_ eksternal.
1414
{{< /note >}}
1515

16-
Ketika membuat servis, kamu mempunyai opsi untuk membuat jaringan _cloud load balancer_ secara otomatis.
17-
Hal ini menyediakan akses eksternal alamat IP yang dapat mengirim lalu lintas melalui porta yang tepat pada klaster _node_ kamu
16+
Ketika membuat Service, kamu mempunyai opsi untuk tersambung dengan jaringan cloud _load balancer_ secara otomatis.
17+
Hal ini menyediakan akses eksternal alamat IP yang dapat mengirim lalu lintas melalui porta yang tepat pada klaster Node kamu
1818
_asalkan klaster kamu beroperasi pada lingkungan yang mendukung dan terkonfigurasi dengan paket penyedia cloud load balancer yang benar_.
1919

20-
Untuk informasi mengenai penyediaan dan penggunaan sumber daya _Ingress_ yang dapat memberikan
20+
Untuk informasi mengenai penyediaan dan penggunaan sumber daya Ingress yang dapat memberikan
2121
servis URL yang dapat dijangkau secara eksternal, penyeimbang beban lalu lintas, terminasi SSL, dll.,
22-
silahkan cek dokumentasi [_Ingress_](/docs/concepts/services-networking/ingress/)
22+
silahkan cek dokumentasi [Ingress](/docs/concepts/services-networking/ingress/)
2323

2424
{{% /capture %}}
2525

@@ -33,8 +33,8 @@ silahkan cek dokumentasi [_Ingress_](/docs/concepts/services-networking/ingress/
3333

3434
## Berkas konfigurasi
3535

36-
Untuk membuat _load balancer_ eksternal, tambahkan baris dibawah ini ke
37-
[berkas konfigurasi servis](/docs/concepts/services-networking/service/#loadbalancer) kamu:
36+
Untuk membuat _load balancer_ eksternal, tambahkan baris di bawah ini ke
37+
[berkas konfigurasi Service](/docs/concepts/services-networking/service/#loadbalancer) kamu:
3838

3939
```yaml
4040
type: LoadBalancer
@@ -58,24 +58,24 @@ spec:
5858
5959
## Menggunakan kubectl
6060
61-
Kamu dapat membuat servis dengan perintah `kubectl expose` dan
61+
Kamu dapat membuat Service dengan perintah `kubectl expose` dan
6262
_flag_ `--type=LoadBalancer`:
6363

6464
```bash
6565
kubectl expose rc example --port=8765 --target-port=9376 \
6666
--name=example-service --type=LoadBalancer
6767
```
6868

69-
Perintah ini membuat servis baru dengan menggunakan pemilih yang sama dengan
70-
sumber daya yang dirujuk (dalam hal contoh diatas, pengendali replikasi bernama `example`).
69+
Perintah ini membuat Service baru dengan menggunakan pemilih yang sama dengan
70+
sumber daya yang dirujuk (dalam hal contoh di atas, ReplicationController bernama `example`).
7171

7272
Untuk informasi lebih lanjut, termasuk opsi _flag_, mengacu kepada
7373
[referensi `kubectl expose`](/docs/reference/generated/kubectl/kubectl-commands/#expose).
7474

7575
## Menemukan alamat IP kamu
7676

77-
Kamu dapat menemukan alamat IP yang telah dibuat untuk servis kamu dengan mendapatkan
78-
informasi servis melalui `kubectl`:
77+
Kamu dapat menemukan alamat IP yang telah dibuat untuk Service kamu dengan mendapatkan
78+
informasi Service melalui `kubectl`:
7979

8080
```bash
8181
kubectl describe services example-service
@@ -102,7 +102,7 @@ yang seharusnya menghasilkan keluaran seperti ini:
102102
Alamat IP tercantum di sebelah `LoadBalancer Ingress`.
103103

104104
{{< note >}}
105-
Juka kamu menjalankan servis dari Minikube, kamu dapat menemukan alamat IP dan porta yang ditetapkan dengan:
105+
Jika kamu menjalankan Service dari Minikube, kamu dapat menemukan alamat IP dan porta yang ditetapkan dengan:
106106
{{< /note >}}
107107

108108
```bash
@@ -111,26 +111,26 @@ minikube service example-service --url
111111

112112
## Preservasi IP sumber klien
113113

114-
Dikarenakan implementasi fitur ini, sumber IP yang terlihat pada _container_
114+
Implementasi dari fitur ini menyebabkan sumber IP yang terlihat pada Container
115115
target *bukan sebagai sumber IP asli* dari klien. Untuk mengaktifkan
116-
preservasi IP klien, bidang berikut dapat dikonfigurasikan didalam
117-
spek servis (mendukung lingkungan GCE/Google Kubernetes Engine):
116+
preservasi IP klien, bidang berikut dapat dikonfigurasikan di dalam
117+
spek Service (mendukung lingkungan GCE/Google Kubernetes Engine):
118118

119-
* `service.spec.externalTrafficPolicy` - menunjukan jika Service menginginkan untuk merute lalu lintas
119+
* `service.spec.externalTrafficPolicy` - menunjukkan jika Service menginginkan rute lalu lintas
120120
eksternal ke titik akhir _node-local_ atau _cluster-wide_. Terdapat dua opsi yang tersedia:
121-
Cluster (_default_) dan Local. Cluster mengaburkan sumber IP klien dan mungkin menyebabkan
122-
hop kedua ke _node_ berbeda, namun harus mempunyai _load-spreading_ yang baik secara keseluruhan.
123-
Local mempreservasi sumber IP client dan menghindari hop kedua _LoadBalancer_ dan servis tipe _NodePort_, namun
121+
`Cluster` (bawaan) dan `Local`. `Cluster` mengaburkan sumber IP klien dan mungkin menyebabkan
122+
hop kedua ke Node berbeda, namun harus mempunyai penyebaran beban (_load-spreading_) yang baik secara keseluruhan.
123+
`Local` mempreservasi sumber IP client dan menghindari hop kedua `LoadBalancer` dan Service dengan tipe `NodePort`, namun
124124
resiko berpotensi penyebaran lalu lintas yang tidak merata.
125-
* `service.spec.healthCheckNodePort` - menentukan cek kesehatan _node_ porta (nomor porta numerik) untuk servis.
126-
Jika `healthCheckNodePort` tidak ditentukan, pengendali servis mengalokasi
127-
porta dari rentang _NodePort_ dari klaster kamu. Kamu dapat mengonfigurasi
125+
* `service.spec.healthCheckNodePort` - menentukan pemeriksaan kesehatan porta dari sebuah Node (angka porta numerik) untuk Service.
126+
Jika `healthCheckNodePort` tidak ditentukan, pengendali Service mengalokasi
127+
porta dari rentang `NodePort` dari klaster kamu. Kamu dapat mengonfigurasi
128128
rentangan tersebut dari pengaturan opsi barisan perintah API server,
129129
`--service-node-port-range`. Hal itu menggunakan nilai `healthCheckNodePort` pengguna spesifik
130-
jika ditentukan oleh klien. Hal itu dapat berefek hanya ketika `type` diset ke _LoadBalancer_ dan
131-
`externalTrafficPolicy` diset ke Local.
130+
jika ditentukan oleh klien. Hal itu dapat berefek hanya ketika `type` diset ke `LoadBalancer` dan
131+
`externalTrafficPolicy` diset ke `Local`.
132132

133-
Pengaturan `externalTrafficPolicy` ke Local pada berkas konfigurasi Service mengaktifkan
133+
Pengaturan `externalTrafficPolicy` ke `Local` pada berkas konfigurasi Service mengaktifkan
134134
fitur ini.
135135

136136
```yaml
@@ -148,49 +148,49 @@ spec:
148148
type: LoadBalancer
149149
```
150150

151-
## Pengumpul Sampah Load Balancers
151+
## Pengumpul Sampah (Garbage Collector) Load Balancer
152152

153153
{{< feature-state for_k8s_version="v1.17" state="stable" >}}
154154

155-
Pada kasus biasa, sumber daya _load balancer_ yang berkorelasi pada penyedia _cloud_ perlu
155+
Pada kasus biasa, sumber daya _load balancer_ yang berkorelasi pada penyedia cloud perlu
156156
dibersihkan segera setelah Service bertipe _LoadBalancer_ dihapus. Namun perlu diketahui
157-
bahwa terdapat kasus tepi dimana sumber daya _cloud_ yatim piatu (_orphaned_) setelah
157+
bahwa terdapat kasus tepi dimana sumber daya cloud yatim piatu (_orphaned_) setelah
158158
Service yang berkaitan dihapus. _Finalizer Protection_ untuk Service _LoadBalancer_
159159
diperkenalkan untuk mencegah hal ini terjadi. Dengan menggunakan _finalizers_, sebuah sumber daya Service
160160
tidak akan pernah dihapus hingga sumber daya _load balancer_ yang berkorelasi juga dihapus.
161161

162-
Secara khusus, jika Service mempunyai `type` _LoadBalancer_, pengendali servis akan melekatkan
162+
Secara khusus, jika Service mempunyai `type LoadBalancer`, pengendali Service akan melekatkan
163163
_finalizer_ bernama `service.kubernetes.io/load-balancer-cleanup`.
164164
_Finalizer_ hanya akan dihapus setelah sumber daya _load balancer_ dibersihkan.
165165
Hal ini mencegah sumber daya _load balancer_ yang teruntai bahkan setelah kasus tepi seperti
166-
pengendali servis berhenti.
166+
pengendali Service berhenti.
167167

168168
## Penyedia Load Balancer Eksternal
169169

170170
Penting untuk dicatat bahwa jalur data untuk fungsionalitas ini disediakan oleh _load balancer_ eksternal ke klaster Kubernetes.
171171

172-
Ketika Service `type` diset `LoadBalancer`, Kubernetes menediakan fungsionalitas yang ekuivalen dengan `type` sebanding ClusterIP
173-
ke _pods_ dalam klaster dan mengekstensinya dengan pemrograman (eksternal ke Kubernetes) _load balancer_ dengan entri pada pods
174-
Kubernetes. Pengendali servis Kubernetes mengotomasi pembuatan _load balancer_ eksternal, cek kesehatan (jika dibutuhkan),
175-
dinding api (jika dibutuhkan), dan mengambil IP eksternal yang dialokasikan oleh penyedia _cloud_ dan mengisinya pada objek servis.
172+
Ketika Service `type` diset `LoadBalancer`, Kubernetes menyediakan fungsionalitas yang ekuivalen dengan `type` sebanding `ClusterIP`
173+
ke berbagai Pod di dalam klaster dan mengekstensinya dengan pemrograman (eksternal dari Kubernetes) _load balancer_ dengan entri pada Pod
174+
Kubernetes. Pengendali Service Kubernetes mengotomasi pembuatan _load balancer_ eksternal, cek kesehatan (jika dibutuhkan),
175+
dinding api (_firewall_) (jika dibutuhkan), dan mengambil IP eksternal yang dialokasikan oleh penyedia cloud dan mengisinya pada objek Service.
176176

177177
## Peringatan dan and Limitasi ketika preservasi sumber IP
178178

179179
_Load balancers_ GCE/AWS tidak menyediakan bobot pada kolam targetnya. Hal ini bukan merupakan isu dengan aturan kube-proxy
180-
LB lama yang akan menyeimbangkan semua titik akhir dengan benar.
180+
_Load balancer_ lama yang akan menyeimbangkan semua titik akhir dengan benar.
181181

182-
Dengan fungsionalitas yang baru, lalu lintas eksternal tidak menyeimbangkan beban secara merata pada seluruh pods, namun
183-
sebaliknya menyeimbangkan secara merata pada level _node_ (karena GCE/AWS dan implementasi LB eksternal lainnya tidak mempunyai
184-
kemampuan untuk menentukan bobot setiap _node_, mereka menyeimbangkan secara merata pada semua _node_ target, mengabaikan jumlah
185-
_pods_ pada tiap _node_).
182+
Dengan fungsionalitas yang baru, lalu lintas eksternal tidak menyeimbangkan beban secara merata pada seluruh Pod, namun
183+
sebaliknya menyeimbangkan secara merata pada level Node (karena GCE/AWS dan implementasi _load balancer_ eksternal lainnya tidak mempunyai
184+
kemampuan untuk menentukan bobot setiap Node, mereka menyeimbangkan secara merata pada semua Node target, mengabaikan jumlah
185+
Pod pada tiap Node).
186186

187187

188-
Namun demikian, kita dapat menyatakan bahwa NumServicePods << NumNodes or NumServicePods >> NumNodes, distribusi yang cukup mendekati
188+
Namun demikian, kita dapat menyatakan bahwa NumServicePods << NumNodes atau NumServicePods >> NumNodes, distribusi yang cukup mendekati
189189
sama akan terlihat, meski tanpa bobot.
190190

191-
Sekali _load balancers_ eksternal menyediakan bobot, fungsionalitas ini dapat ditambahkan pada jalur pemrograman LB.
191+
Sekali _load balancer_ eksternal menyediakan bobot, fungsionalitas ini dapat ditambahkan pada jalur pemrograman _load balancer_.
192192
*Pekerjaan Masa Depan: Tidak adanya dukungan untuk bobot yang disediakan untuk rilis 1.4, namun dapat ditambahkan di masa mendatang*
193193

194-
_Pod_ internal ke lalu lintas _pod_ harus berperilaku sama seperti servis ClusterIP, dengan probabilitas yang sama pada seluruh _pods_.
194+
Pod internal ke lalu lintas Pod harus berperilaku sama seperti Service ClusterIP, dengan probabilitas yang sama pada seluruh Pod.
195195

196196
{{% /capture %}}

0 commit comments

Comments
 (0)