Skip to content

Commit e35c581

Browse files
committed
fix: manual edits
1 parent 2120da2 commit e35c581

File tree

1 file changed

+23
-23
lines changed
  • chapters/ko/chapter3

1 file changed

+23
-23
lines changed

chapters/ko/chapter3/5.mdx

Lines changed: 23 additions & 23 deletions
Original file line numberDiff line numberDiff line change
@@ -9,28 +9,28 @@
99

1010
이제 `Trainer` API와 사용자 정의 훈련 루프를 모두 사용하여 미세 조정을 구현하는 방법을 배웠으므로, 결과를 해석하는 방법을 이해하는 것이 중요합니다. 학습 곡선은 훈련 중 모델의 성능을 평가하고 성능 저하를 일으킬 수 있는 잠재적 문제를 미리 식별하는 데 도움이 되는 매우 유용한 도구입니다.
1111

12-
이 섹션에서는 정확도와 손실 곡선을 읽고 해석하는 방법을 탐구하고, 다양한 곡선 모양이 모델의 동작에 대해 무엇을 알려주는지 이해하며, 일반적인 훈련 문제를 해결하는 방법을 배웁니다.
12+
이 섹션에서는 정확도와 손실 곡선을 읽고 해석하는 방법을 탐구하고, 다양한 곡선 패턴이 모델 동작에 대해 무엇을 의미하는지 파악하며, 일반적인 훈련 문제를 해결하는 방법을 배웁니다.
1313

1414
## 학습 곡선이란 무엇인가요?[[what-are-learning-curves]]
1515

16-
학습 곡선은 훈련 중에 시간에 따른 모델의 성능 메트릭을 시각적으로 나타낸 것입니다. 모니터링해야 할 가장 중요한 두 곡선은 다음과 같습니다.
16+
학습 곡선은 훈련 중에 시간에 따른 모델의 성능 지표를 시각적으로 나타낸 것입니다. 모니터링해야 할 가장 중요한 두 곡선은 다음과 같습니다.
1717

1818
- **손실 곡선**: 훈련 단계나 에폭에 따라 모델의 오류(손실)가 어떻게 변하는지 보여줍니다.
1919
- **정확도 곡선**: 훈련 단계나 에폭에 따른 정확한 예측의 백분율을 보여줍니다.
2020

21-
이러한 곡선을 통해 모델의 학습 효과를 파악하고, 성능 향상을 위한 조정 방향을 결정할 수 있습니다. Transformers에서는 이러한 메트릭이 각 배치에 대해 개별적으로 계산된 다음 디스크에 기록됩니다. 그런 다음 [Weights & Biases](https://wandb.ai/)와 같은 라이브러리를 사용하여 이러한 곡선을 시각화하고 시간에 따른 모델의 성능을 추적할 수 있습니다.
21+
이러한 곡선을 통해 모델의 학습 효과를 파악하고, 성능 향상을 위한 조정 방향을 제시할 수 있습니다. Transformers에서는 이러한 지표가 각 배치에 대해 개별적으로 계산된 다음 디스크에 기록됩니다. 그런 다음 [Weights & Biases](https://wandb.ai/)와 같은 라이브러리를 사용하여 이러한 곡선을 시각화하고 시간에 따른 모델의 성능을 추적할 수 있습니다.
2222

2323
### 손실 곡선[[loss-curves]]
2424

25-
손실 곡선은 시간에 따라 모델의 오류가 어떻게 감소하는지 보여줍니다. 일반적으로 성공적인 훈련 실행에서는 아래와 같은 곡선을 볼 수 있습니다.
25+
손실 곡선은 시간에 따라 모델의 오류가 어떻게 감소하는지 보여줍니다. 성공적인 훈련에서는 보통 다음과 같은 곡선 패턴을 관찰할 수 있습니다.
2626

2727
![Loss Curve](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter3/1.png)
2828

2929
- **높은 초기 손실**: 모델이 최적화 없이 시작하므로 초기 예측이 좋지 않습니다.
3030
- **감소하는 손실**: 훈련이 진행됨에 따라 손실이 일반적으로 감소해야 합니다.
3131
- **수렴**: 최종적으로 손실이 낮은 수준에서 안정되면서 모델이 데이터 패턴을 성공적으로 학습했음을 보여줍니다.
3232

33-
이전 챕터에서와 같이 `Trainer` API를 사용하여 이러한 메트릭을 추적하고 대시보드에서 시각화할 수 있습니다. 다음은 Weights & Biases로 이를 수행하는 예시입니다.
33+
이전 챕터에서와 같이 `Trainer` API를 사용하여 이러한 지표를 추적하고 대시보드에서 시각화할 수 있습니다. 다음은 Weights & Biases로 이를 수행하는 예시입니다.
3434

3535
```python
3636
# Trainer로 훈련 중 손실을 추적하는 예시
@@ -45,7 +45,7 @@ training_args = TrainingArguments(
4545
eval_strategy="steps",
4646
eval_steps=50,
4747
save_steps=100,
48-
logging_steps=10, # 10단계마다 메트릭 로그
48+
logging_steps=10, # 10단계마다 지표 로그
4949
num_train_epochs=3,
5050
per_device_train_batch_size=16,
5151
per_device_eval_batch_size=16,
@@ -62,7 +62,7 @@ trainer = Trainer(
6262
compute_metrics=compute_metrics,
6363
)
6464

65-
# 훈련 및 자동 메트릭 로그
65+
# 훈련 및 자동 지표 로그
6666
trainer.train()
6767
```
6868

@@ -88,11 +88,11 @@ trainer.train()
8888

8989
![Convergence](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter3/4.png)
9090

91-
모델이 수렴하면 새로운 데이터에 대한 예측을 만들고 평가 메트릭을 참조하여 모델의 성능을 이해할 수 있습니다.
91+
모델이 수렴하면 새로운 데이터에 대한 예측을 만들고 평가 지표를 참조하여 모델의 성능을 이해할 수 있습니다.
9292

9393
## 학습 곡선 패턴 해석하기[[interpreting-learning-curve-patterns]]
9494

95-
다양한 곡선 모양은 모델 훈련의 다양한 측면을 드러냅니다. 가장 일반적인 패턴과 그 의미를 살펴보겠습니다.
95+
곡선의 다양한 패턴은 모델 훈련의 여러 측면을 보여줍니다. 가장 일반적인 패턴과 그 의미를 살펴보겠습니다.
9696

9797
### 건전한 학습 곡선[[healthy-learning-curves]]
9898

@@ -104,17 +104,17 @@ trainer.train()
104104

105105
손실 곡선은 시간에 따른 모델 손실의 값을 보여줍니다. 처음에는 손실이 높다가 점차 감소하여 모델이 개선되고 있음을 나타냅니다. 손실 값의 감소는 손실이 예측된 출력과 실제 출력 간의 오류를 나타내므로 모델이 더 나은 예측을 하고 있음을 시사합니다.
106106

107-
이제 정확도 곡선에 초점을 맞춰보겠습니다. 이는 시간에 따른 모델의 정확도를 나타냅니다. 정확도 곡선은 낮은 값에서 시작하여 훈련이 진행됨에 따라 증가합니다. 정확도는 올바르게 분류된 인스턴스의 비율을 측정합니다. 따라서 정확도 곡선이 상승함에 따라 모델이 더 정확한 예측을 하고 있음을 의미합니다.
107+
다음으로 정확도 곡선을 살펴보겠습니다. 이는 시간에 따른 모델의 정확도를 나타냅니다. 정확도 곡선은 낮은 값에서 시작하여 훈련이 진행됨에 따라 증가합니다. 정확도는 올바르게 분류된 인스턴스의 비율을 측정합니다. 따라서 정확도 곡선이 상승함에 따라 모델이 더 정확한 예측을 하고 있음을 의미합니다.
108108

109109
곡선 간의 주목할 만한 차이점 중 하나는 정확도 곡선의 부드러움과 "고원"의 존재입니다. 손실이 부드럽게 감소하는 동안 정확도 곡선의 고원은 연속적인 증가 대신 정확도의 이산적인 점프를 나타냅니다. 이러한 현상은 정확도 측정 방식의 특성 때문입니다. 최종 예측이 여전히 틀렸더라도 모델의 출력이 목표에 가까워지면 손실이 개선될 수 있습니다. 그러나 정확도는 예측이 정확한 임계값을 넘어야만 향상됩니다.
110110

111111
예를 들어, 고양이(0)와 개(1)를 구별하는 이진 분류기에서 모델이 개 이미지(실제 값 1)에 대해 0.3을 예측하면 이는 0으로 반올림되어 잘못된 분류입니다. 다음 단계에서 0.4를 예측하면 여전히 틀렸습니다. 0.4가 0.3보다 1에 더 가깝기 때문에 손실은 감소했지만 정확도는 변하지 않아 고원을 만듭니다. 정확도는 모델이 0.5보다 큰 값을 예측하여 1로 반올림될 때만 점프합니다.
112112

113113
<Tip>
114114

115-
**건전한 곡선의 특성:**
115+
**건전한 곡선의 특성**
116116
- **손실의 부드러운 감소**: 훈련 및 검증 손실이 모두 꾸준히 감소
117-
- **훈련/검증 성능이 근접**: 훈련 및 검증 메트릭 간의 작은 격차
117+
- **훈련/검증 성능이 근접**: 훈련 및 검증 지표 간의 작은 격차
118118
- **수렴**: 곡선이 평평해져서 모델이 패턴을 학습했음을 나타냄
119119

120120
</Tip>
@@ -143,9 +143,9 @@ trainer.train()
143143

144144
<Tip>
145145

146-
🔍 **W&B 대시보드 기능**: Weights & Biases는 학습 곡선의 아름답고 대화형 플롯을 자동으로 생성합니다. 다음을 할 수 있습니다.
146+
🔍 **W&B 대시보드 기능**: Weights & Biases를 사용하면 학습 곡선을 보기 좋고 상호작용 가능한 그래프로 자동으로 만들 수 있습니다.
147147
- 여러 실행을 나란히 비교
148-
- 사용자 정의 메트릭 및 시각화 추가
148+
- 사용자 정의 지표 및 시각화 추가
149149
- 이상 동작에 대한 알림 설정
150150
- 팀과 결과 공유
151151

@@ -158,13 +158,13 @@ trainer.train()
158158

159159
![Overfitting](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter3/10.png)
160160

161-
**증상:**
161+
**증상**
162162

163163
- 훈련 손실은 계속 감소하지만 검증 손실은 증가하거나 고원에 머무름
164164
- 훈련과 검증 정확도 간의 큰 격차
165165
- 훈련 정확도가 검증 정확도보다 훨씬 높음
166166

167-
**과적합 해결책:**
167+
**과적합 해결책**
168168
- **정규화**: 드롭아웃, 가중치 감쇠 또는 기타 정규화 기법 추가
169169
- **조기 중단**: 검증 성능이 개선을 멈출 때 훈련 중단
170170
- **데이터 증강**: 훈련 데이터 다양성 증가
@@ -212,12 +212,12 @@ trainer = Trainer(
212212

213213
![Underfitting](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter3/7.png)
214214

215-
**증상:**
215+
**증상**
216216
- 훈련 및 검증 손실이 모두 높게 유지됨
217217
- 모델 성능이 훈련 초기에 고원에 도달
218218
- 훈련 정확도가 예상보다 낮음
219219

220-
**부적합 해결책:**
220+
**부적합 해결책**
221221
- **모델 용량 증가**: 더 큰 모델이나 더 많은 매개변수 사용
222222
- **더 오래 훈련**: 에폭 수 증가
223223
- **학습률 조정**: 다른 학습률 시도
@@ -237,7 +237,7 @@ training_args = TrainingArguments(
237237

238238
#### 3. 불안정한 학습 곡선[[erratic-learning-curves]]
239239

240-
불안정한 학습 곡선은 모델이 효과적으로 학습하지 않을 때 발생합니다. 이는 여러 가지 이유로 발생할 수 있습니다:
240+
불안정한 학습 곡선은 모델이 효과적으로 학습하지 않을 때 발생합니다. 이는 여러 가지 이유로 발생할 수 있습니다.
241241

242242
- 학습률이 너무 높아서 모델이 최적 매개변수를 오버슛함
243243
- 배치 크기가 너무 작아서 모델이 천천히 학습함
@@ -246,7 +246,7 @@ training_args = TrainingArguments(
246246

247247
![Erratic Learning Curves](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter3/3.png)
248248

249-
**증상:**
249+
**증상**
250250
- 손실이나 정확도에서 빈번한 변동
251251
- 곡선이 높은 분산이나 불안정성을 보임
252252
- 성능이 명확한 경향 없이 진동함
@@ -277,7 +277,7 @@ training_args = TrainingArguments(
277277

278278
## 핵심 요점[[key-takeaways]]
279279

280-
학습 곡선을 이해하는 것은 효과적인 기계학습 실무자가 되기 위해 중요합니다. 이러한 시각적 도구는 모델의 훈련 진행 상황에 대한 즉각적인 피드백을 제공하고 언제 훈련을 중단하거나 하이퍼파라미터를 조정하거나 다른 접근 방식을 시도할지에 대한 정보에 기반한 결정을 내리는 데 도움이 됩니다. 연습을 통해 건전한 학습 곡선이 어떤 모습인지, 그리고 문제가 발생했을 때 어떻게 해결할지에 대한 직관적인 이해를 개발할 수 있습니다.
280+
학습 곡선을 이해하는 것은 효과적인 기계학습 전문가가 되기 위해 중요합니다. 이러한 시각적 도구는 모델의 훈련 진행 상황에 대한 즉각적인 피드백을 제공하고 언제 훈련을 중단하거나 하이퍼파라미터를 조정하거나 다른 접근 방식을 시도할지에 대한 정보에 기반한 결정을 내리는 데 도움이 됩니다. 연습을 통해 건전한 학습 곡선이 어떤 모습인지, 그리고 문제가 발생했을 때 어떻게 해결할지에 대한 직관적인 이해를 개발할 수 있습니다.
281281

282282
<Tip>
283283

@@ -330,7 +330,7 @@ training_args = TrainingArguments(
330330
explain: "계단식 패턴은 정상적이고 예상되는 것이며 오류가 아닙니다."
331331
},
332332
{
333-
text: "정확도는 예측이 결정 경계를 넘을 때만 변하는 이산적인 메트릭입니다.",
333+
text: "정확도는 예측이 결정 경계를 넘을 때만 변하는 이산적인 지표입니다.",
334334
explain: "정답입니다! 손실과 달리 정확도는 이산적인 예측 결정에 의존하므로 신뢰도의 작은 개선이 임계값을 넘을 때까지 최종 정확도를 변경하지 않을 수 있습니다.",
335335
correct: true
336336
},
@@ -340,7 +340,7 @@ training_args = TrainingArguments(
340340
},
341341
{
342342
text: "배치 크기가 너무 작습니다.",
343-
explain: "배치 크기는 훈련 안정성에 영향을 미치지만 정확도 메트릭의 본질적으로 이산적인 특성을 설명하지는 않습니다."
343+
explain: "배치 크기는 훈련 안정성에 영향을 미치지만 정확도 지표의 본질적으로 이산적인 특성을 설명하지는 않습니다."
344344
}
345345
]}
346346
/>

0 commit comments

Comments
 (0)