Skip to content

Commit 7f4cda9

Browse files
Youngdong2harheem
andauthored
Apply suggestions from code review
Co-authored-by: Harheem Kim <[email protected]>
1 parent 1964953 commit 7f4cda9

File tree

1 file changed

+14
-14
lines changed
  • chapters/ko/chapter3

1 file changed

+14
-14
lines changed

chapters/ko/chapter3/3.mdx

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -182,9 +182,9 @@ trainer.train()
182182

183183
### 고급 훈련 기능[[advanced-training-features]]
184184

185-
`Trainer`는 현대 딥러닝의 모범 사례들을 쉽게 활용할 수 있도록 다양한 내장 기능을 제공합니다:
185+
`Trainer`는 현대 딥러닝의 모범 사례들을 쉽게 활용할 수 있도록 다양한 내장 기능을 제공합니다.
186186

187-
**혼합 정밀도 훈련**: 더 빠른 훈련과 메모리 사용량 감소를 위해 훈련 인수에서 `fp16=True`사용하세요:
187+
**혼합 정밀도 훈련**: 더 빠른 훈련과 메모리 사용량 감소를 위해 훈련 인수에서 `fp16=True`설정하세요.
188188

189189
```py
190190
training_args = TrainingArguments(
@@ -194,18 +194,18 @@ training_args = TrainingArguments(
194194
)
195195
```
196196

197-
**그레이디언트 누적**: GPU 메모리가 제한될효과적인 더 큰 배치 크기를 위해:
197+
**그레이디언트 누적**: GPU 메모리가 부족할 때 더 큰 배치 크기로 학습하는 효과를 낼 수 있습니다.
198198

199199
```py
200200
training_args = TrainingArguments(
201201
"test-trainer",
202202
eval_strategy="epoch",
203203
per_device_train_batch_size=4,
204-
gradient_accumulation_steps=4, # 효과적인 배치 크기 = 4 * 4 = 16
204+
gradient_accumulation_steps=4, # 유효 배치 크기 = 4 * 4 = 16
205205
)
206206
```
207207

208-
**학습률 스케줄링**: Trainer는 기본적으로 선형 감소 방식을 사용하지만, 사용자 맞춤 설정이 가능합니다:
208+
**학습률 스케줄링**: Trainer는 기본적으로 선형 감소 방식을 사용하지만, 사용자 맞춤 설정이 가능합니다.
209209

210210
```py
211211
training_args = TrainingArguments(
@@ -222,9 +222,9 @@ training_args = TrainingArguments(
222222

223223
</Tip>
224224

225-
`Trainer`는 여러 GPU 또는 TPU에서 즉시 작동하며 분산 훈련을 위한 많은 옵션을 제공합니다. 지원하는 모든 것에 대해서는 Chapter 10에서 다루겠습니다.
225+
`Trainer`는 여러 GPU 또는 TPU에서 즉시 작동하며 분산 훈련을 위한 많은 옵션을 제공합니다. 이와 관련된 모든 내용은 Chapter 10에서 다루겠습니다.
226226

227-
이것으로 `Trainer` API를 사용한 미세 조정에 대한 소개를 마칩니다. 대부분의 일반적인 NLP 작업에 대한 예제는 [Chapter 7](/course/chapter7)에서 다룰 예정이며, 지금부터는 순수 PyTorch 훈련 루프를 사용하여 동일한 작업을 수행하는 방법을 살펴보겠습니다.
227+
이것으로 `Trainer` API를 사용한 미세 조정 소개를 마칩니다. 대부분의 일반적인 NLP 작업에 대한 예제는 [Chapter 7](/course/chapter7)에서 다룰 예정이며, 다음으로는 순수 PyTorch 코드로 동일한 작업을 수행하는 방법을 살펴보겠습니다.
228228

229229
<Tip>
230230

@@ -234,7 +234,7 @@ training_args = TrainingArguments(
234234

235235
## 섹션 퀴즈[[section-quiz]]
236236

237-
Trainer API와 미세 조정 개념에 대한 이해를 테스트해보세요:
237+
Trainer API와 미세 조정 개념에 대한 이해를 테스트해보세요.
238238

239239
### 1. `Trainer`에서 <code>processing_class</code> 매개변수의 목적은 무엇인가요?
240240

@@ -260,7 +260,7 @@ Trainer API와 미세 조정 개념에 대한 이해를 테스트해보세요:
260260
]}
261261
/>
262262

263-
### 2. 훈련 중 평가가 얼마나 자주 발생하는지 제어하는 TrainingArguments 매개변수는 무엇인가요?
263+
### 2. 훈련 중 평가가 얼마나 자주 발생하는지를 제어하는 TrainingArguments 매개변수는 무엇인가요?
264264

265265
<Question
266266
choices={[
@@ -383,11 +383,11 @@ Trainer API와 미세 조정 개념에 대한 이해를 테스트해보세요:
383383
<Tip>
384384

385385
💡 **핵심 요점:**
386-
- `Trainer` API는 대부분의 훈련 복잡성을 처리하는 높은 수준의 인터페이스를 제공합니다
387-
- 적절한 데이터 처리를 위해 `processing_class`를 사용하여 토크나이저를 지정하세요
388-
- `TrainingArguments`는 학습률, 배치 크기, 평가 전략, 최적화 등 훈련의 모든 측면을 제어합니다
389-
- `compute_metrics`를 사용하면 훈련 손실 외에 사용자 정의 평가 메트릭을 활용할 수 있습니다
390-
- 혼합 정밀도(`fp16=True`)와 그레이디언트 누적과 같은 최신 기능은 훈련 효율성을 크게 향상시킬 수 있습니다
386+
- `Trainer` API는 대부분의 훈련 복잡성을 처리하는 높은 수준의 인터페이스를 제공합니다.
387+
- `processing_class`적절한 데이터 처리를 위해 토크나이저를 저장하는 데 사용됩니다.
388+
- `TrainingArguments`는 학습률, 배치 크기, 평가 전략, 최적화 등 훈련의 모든 측면을 제어합니다.
389+
- `compute_metrics`를 사용하면 훈련 손실 외에 사용자 정의 평가 메트릭을 활용할 수 있습니다.
390+
- 혼합 정밀도(`fp16=True`)와 그레이디언트 누적과 같은 최신 기능은 훈련 효율성을 크게 향상시킬 수 있습니다.
391391

392392
</Tip>
393393

0 commit comments

Comments
 (0)