Skip to content

Commit

Permalink
용어 번역 개선(size): 사이즈 -> 크기 (PyTorchKorea#334)
Browse files Browse the repository at this point in the history
Co-authored-by: Junghwan Park <9343724+9bow@users.noreply.github.com>
  • Loading branch information
yoosful and 9bow committed Jan 9, 2022
1 parent 5254954 commit 0c32b3d
Show file tree
Hide file tree
Showing 3 changed files with 9 additions and 9 deletions.
6 changes: 3 additions & 3 deletions advanced_source/super_resolution_with_onnxruntime.py
Original file line number Diff line number Diff line change
Expand Up @@ -27,7 +27,7 @@

######################################################################
# 초해상화(super-resolution)란 이미지나 비디오의 해상도를 높이기 위한 방법으로 이미지 프로세싱이나 비디오 편집에 널리
# 사용되고 있는 방법입니다. 이 튜토리얼에서는 사이즈가 작은 초해상화 모델을 사용하도록 하겠습니다.
# 사용되고 있는 방법입니다. 이 튜토리얼에서는 크기가 작은 초해상화 모델을 사용하도록 하겠습니다.
#
# 먼저, 초해상화 모델을 PyTorch에서 구현하겠습니다.
# 이 모델은 `"Real-Time Single Image and Video Super-Resolution Using an Efficient
Expand Down Expand Up @@ -107,7 +107,7 @@ def _initialize_weights(self):
# 이 함수는 모델을 실행하여 어떤 연산자들이 출력값을 계산하는데 사용되었는지를 기록합니다.
# ``export`` 함수가 모델을 실행하기 때문에, 우리가 직접 텐서를 입력값으로 넘겨주어야 합니다.
# 이 텐서의 값은 알맞은 자료형과 모양이라면 랜덤하게 결정되어도 무방합니다.
# 특정 차원을 동적 차원으로 지정하지 않는 이상, ONNX로 변환된 그래프의 경우 입력값의 사이즈는 모든 차원에 대해 고정됩니다.
# 특정 차원을 동적 차원으로 지정하지 않는 이상, ONNX로 변환된 그래프의 경우 입력값의 크기는 모든 차원에 대해 고정됩니다.
# 예시에서는 모델이 항상 배치 사이즈 1을 사용하도록 변환하였지만, ``torch.onnx.export()`` 의 ``dynamic_axes`` 인자의
# 첫번째 차원은 동적 차원으로 지정합니다. 따라서 변환된 모델은 임의의 batch_size에 대해 [batch_size, 1, 224, 224] 사이즈
# 입력값을 받을 수 있습니다.
Expand Down Expand Up @@ -209,7 +209,7 @@ def to_numpy(tensor):
# 먼저, PIL 라이브러리를 사용하여 이미지를 로드하고 전처리하겠습니다. 이 전처리는 신경망 학습과 테스트에
# 보편적으로 적용되고 있는 전처리 과정입니다.
#
# 먼저 이미지를 모델의 입력값 사이즈(224x224)에 맞게 리사이즈합니다.
# 먼저 이미지를 모델의 입력값 크기(224x224)에 맞게 리사이즈합니다.
# 그리고 이미지를 Y, Cb, Cr 성분으로 분해합니다.
# Y 성분[역자 주: 휘도 성분]은 그레이스케일(회색조) 이미지를 나타내고, Cb 성분은 파란색에서 밝기를 뺀 색차 성분,
# Cr은 빨강색에서 밝기를 뺀 색차 성분을 나타냅니다.
Expand Down
6 changes: 3 additions & 3 deletions beginner_source/data_loading_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -182,7 +182,7 @@ def __getitem__(self, idx):
# Transforms
# ----------
#
# 위에서 볼 수 있었던 한가지 문제점은 샘플들이 다 같은 사이즈가 아니라는 것입니다.
# 위에서 볼 수 있었던 한가지 문제점은 샘플들이 다 같은 크기가 아니라는 것입니다.
# 대부분의 신경망(neural networks)은 고정된 크기의 이미지라고 가정합니다.
# 그러므로 우리는 신경망에 주기 전에 처리할 과정을 작성해야 합니다.
#
Expand All @@ -207,10 +207,10 @@ def __getitem__(self, idx):
# 아래에서는 이미지와 랜드마크(landmark)들을 어떻게 적용하는지 살펴보도록 하겠습니다.

class Rescale(object):
"""주어진 사이즈로 샘플크기를 조정합니다.
"""주어진 크기로 샘플크기를 조정합니다.
Args:
output_size(tuple or int) : 원하는 사이즈 값
output_size(tuple or int) : 원하는 출력 크기가
tuple인 경우 해당 tuple(output_size)이 결과물(output)의 크기가 되고,
int라면 비율을 유지하면서, 길이가 작은 쪽이 output_size가 됩니다.
"""
Expand Down
6 changes: 3 additions & 3 deletions beginner_source/nn_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -143,7 +143,7 @@ def model(xb):
# 이것은 하나의 *포워드 전달(forward pass)* 입니다. 이 단계에서 우리는 무작위(random) 가중치로
# 시작했기 때문에 우리의 예측이 무작위 예측보다 전혀 나은 점이 없을 것입니다.

bs = 64 # 배치 사이즈
bs = 64 # 배치 크기

xb = x_train[0:bs] # x로부터 미니배치(mini-batch) 추출
preds = model(xb) # 예측
Expand Down Expand Up @@ -189,7 +189,7 @@ def accuracy(out, yb):
###############################################################################
# 이제 우리는 훈련 루프(training loop)를 실행할 수 있습니다. 매 반복마다, 우리는 다음을 수행할 것입니다:
#
# - 데이터의 미니배치를 선택 (``bs`` 사이즈)
# - 데이터의 미니배치를 선택 (``bs`` 크기)
# - 모델을 이용하여 예측 수행
# - 손실 계산
# - ``loss.backward()`` 를 이용하여 모델의 기울기 업데이트, 이 경우에는, ``weights`` 와 ``bias``.
Expand Down Expand Up @@ -567,7 +567,7 @@ def get_model():
# 반면에, 검증 손실(validation loss)은 검증 데이터셋을 섞든 안섞든 동일합니다.
# 데이터를 섞는 것은 추가 시간이 걸리므로, 검증 데이터를 섞는 것은 의미가 없습니다.
#
# 검증 데이터셋에 대한 배치 사이즈는 학습 데이터셋 배치 크기의 2배를 사용할 것입니다.
# 검증 데이터셋에 대한 배치 크기는 학습 데이터셋 배치 크기의 2배를 사용할 것입니다.
# 이는 검증 데이터셋에 대해서는 역전파(backpropagation)가 필요하지 않으므로 메모리를
# 덜 사용하기 때문입니다 (기울기를 저장할 필요가 없음).
# 더 큰 배치 크기를 사용하여 손실을 더 빨리 계산하기 위해 이렇게 합니다.
Expand Down

0 comments on commit 0c32b3d

Please sign in to comment.