Skip to content

Commit 0c32b3d

Browse files
yoosful9bow
andauthored
용어 번역 개선(size): 사이즈 -> 크기 (#334)
Co-authored-by: Junghwan Park <[email protected]>
1 parent 5254954 commit 0c32b3d

File tree

3 files changed

+9
-9
lines changed

3 files changed

+9
-9
lines changed

advanced_source/super_resolution_with_onnxruntime.py

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -27,7 +27,7 @@
2727

2828
######################################################################
2929
# 초해상화(super-resolution)란 이미지나 비디오의 해상도를 높이기 위한 방법으로 이미지 프로세싱이나 비디오 편집에 널리
30-
# 사용되고 있는 방법입니다. 이 튜토리얼에서는 사이즈가 작은 초해상화 모델을 사용하도록 하겠습니다.
30+
# 사용되고 있는 방법입니다. 이 튜토리얼에서는 크기가 작은 초해상화 모델을 사용하도록 하겠습니다.
3131
#
3232
# 먼저, 초해상화 모델을 PyTorch에서 구현하겠습니다.
3333
# 이 모델은 `"Real-Time Single Image and Video Super-Resolution Using an Efficient
@@ -107,7 +107,7 @@ def _initialize_weights(self):
107107
# 이 함수는 모델을 실행하여 어떤 연산자들이 출력값을 계산하는데 사용되었는지를 기록합니다.
108108
# ``export`` 함수가 모델을 실행하기 때문에, 우리가 직접 텐서를 입력값으로 넘겨주어야 합니다.
109109
# 이 텐서의 값은 알맞은 자료형과 모양이라면 랜덤하게 결정되어도 무방합니다.
110-
# 특정 차원을 동적 차원으로 지정하지 않는 이상, ONNX로 변환된 그래프의 경우 입력값의 사이즈는 모든 차원에 대해 고정됩니다.
110+
# 특정 차원을 동적 차원으로 지정하지 않는 이상, ONNX로 변환된 그래프의 경우 입력값의 크기는 모든 차원에 대해 고정됩니다.
111111
# 예시에서는 모델이 항상 배치 사이즈 1을 사용하도록 변환하였지만, ``torch.onnx.export()`` 의 ``dynamic_axes`` 인자의
112112
# 첫번째 차원은 동적 차원으로 지정합니다. 따라서 변환된 모델은 임의의 batch_size에 대해 [batch_size, 1, 224, 224] 사이즈
113113
# 입력값을 받을 수 있습니다.
@@ -209,7 +209,7 @@ def to_numpy(tensor):
209209
# 먼저, PIL 라이브러리를 사용하여 이미지를 로드하고 전처리하겠습니다. 이 전처리는 신경망 학습과 테스트에
210210
# 보편적으로 적용되고 있는 전처리 과정입니다.
211211
#
212-
# 먼저 이미지를 모델의 입력값 사이즈(224x224)에 맞게 리사이즈합니다.
212+
# 먼저 이미지를 모델의 입력값 크기(224x224)에 맞게 리사이즈합니다.
213213
# 그리고 이미지를 Y, Cb, Cr 성분으로 분해합니다.
214214
# Y 성분[역자 주: 휘도 성분]은 그레이스케일(회색조) 이미지를 나타내고, Cb 성분은 파란색에서 밝기를 뺀 색차 성분,
215215
# Cr은 빨강색에서 밝기를 뺀 색차 성분을 나타냅니다.

beginner_source/data_loading_tutorial.py

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -182,7 +182,7 @@ def __getitem__(self, idx):
182182
# Transforms
183183
# ----------
184184
#
185-
# 위에서 볼 수 있었던 한가지 문제점은 샘플들이 다 같은 사이즈가 아니라는 것입니다.
185+
# 위에서 볼 수 있었던 한가지 문제점은 샘플들이 다 같은 크기가 아니라는 것입니다.
186186
# 대부분의 신경망(neural networks)은 고정된 크기의 이미지라고 가정합니다.
187187
# 그러므로 우리는 신경망에 주기 전에 처리할 과정을 작성해야 합니다.
188188
#
@@ -207,10 +207,10 @@ def __getitem__(self, idx):
207207
# 아래에서는 이미지와 랜드마크(landmark)들을 어떻게 적용하는지 살펴보도록 하겠습니다.
208208

209209
class Rescale(object):
210-
"""주어진 사이즈로 샘플크기를 조정합니다.
210+
"""주어진 크기로 샘플크기를 조정합니다.
211211
212212
Args:
213-
output_size(tuple or int) : 원하는 사이즈 값
213+
output_size(tuple or int) : 원하는 출력 크기가
214214
tuple인 경우 해당 tuple(output_size)이 결과물(output)의 크기가 되고,
215215
int라면 비율을 유지하면서, 길이가 작은 쪽이 output_size가 됩니다.
216216
"""

beginner_source/nn_tutorial.py

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -143,7 +143,7 @@ def model(xb):
143143
# 이것은 하나의 *포워드 전달(forward pass)* 입니다. 이 단계에서 우리는 무작위(random) 가중치로
144144
# 시작했기 때문에 우리의 예측이 무작위 예측보다 전혀 나은 점이 없을 것입니다.
145145

146-
bs = 64 # 배치 사이즈
146+
bs = 64 # 배치 크기
147147

148148
xb = x_train[0:bs] # x로부터 미니배치(mini-batch) 추출
149149
preds = model(xb) # 예측
@@ -189,7 +189,7 @@ def accuracy(out, yb):
189189
###############################################################################
190190
# 이제 우리는 훈련 루프(training loop)를 실행할 수 있습니다. 매 반복마다, 우리는 다음을 수행할 것입니다:
191191
#
192-
# - 데이터의 미니배치를 선택 (``bs`` 사이즈)
192+
# - 데이터의 미니배치를 선택 (``bs`` 크기)
193193
# - 모델을 이용하여 예측 수행
194194
# - 손실 계산
195195
# - ``loss.backward()`` 를 이용하여 모델의 기울기 업데이트, 이 경우에는, ``weights`` 와 ``bias``.
@@ -567,7 +567,7 @@ def get_model():
567567
# 반면에, 검증 손실(validation loss)은 검증 데이터셋을 섞든 안섞든 동일합니다.
568568
# 데이터를 섞는 것은 추가 시간이 걸리므로, 검증 데이터를 섞는 것은 의미가 없습니다.
569569
#
570-
# 검증 데이터셋에 대한 배치 사이즈는 학습 데이터셋 배치 크기의 2배를 사용할 것입니다.
570+
# 검증 데이터셋에 대한 배치 크기는 학습 데이터셋 배치 크기의 2배를 사용할 것입니다.
571571
# 이는 검증 데이터셋에 대해서는 역전파(backpropagation)가 필요하지 않으므로 메모리를
572572
# 덜 사용하기 때문입니다 (기울기를 저장할 필요가 없음).
573573
# 더 큰 배치 크기를 사용하여 손실을 더 빨리 계산하기 위해 이렇게 합니다.

0 commit comments

Comments
 (0)