반응형


Feature Normalization & Softmax

이 포스팅들은 기초 ML 이론을 정리하는 목적으로 쓰는 것이므로, 글의 완성도가 조금 떨어질 수 있다.사실 두가지 주제가 딱히 관련이 있진 않지만, 분량이 애매해서 2개를 묶어서 포스팅을 진행하게 되었다.

 

Normalization


출처: https://towardsdatascience.com/how-to-calculate-the-mean-and-standard-deviation-normalizing-datasets-in-pytorch-704bd7d05f4c

  • Normalization은 서로 다른 Feature의 분포를 모두 동일한 기준으로 맞춰줌으로써 보다 빠르게 Convergence가 일어날 수 있도록 하는데에 의의가 있다.
  • 위 그림은 Gradient Descent 과정에서 Normalization의 중요성을 여실히 보여준다.
  • Normalization 방법은 대표적으로 Min-Max Normalization과 Z-score Normalization이 존재한다.

  • Mix-Max Normalization
    - 최소-최대 정규화 (0, 1 사이로 맞춰줌)
    import numpy as np
    
    X = np.array([[10., -10., 1.],[5., 0., 2.],[0., 10., 3.]])
    X_minmax = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))

  • Z-score Normalization
    - 평균과 표준편차를 사용하여 정규화
    import numpy as np
    
    X = np.array([[10., -10., 1.],[5., 0., 2.],[0., 10., 3.]])
    X_zscore = (X - X.mean(axis=0)) / X.std(axis=0)

SoftMax


  • 분류해야 하는 클래스의 총 개수가 k개일 때, k차원의 벡터 Z를 입력받으면, 각 클래스에 대한 확률값 P를 리턴해주는 함수이다.
  • 총 확률값의 합은 언제나 1이 나오도록 맞춰준다.

반응형
블로그 이미지

Hyunsoo Luke HA

석사를 마치고 현재는 Upstage에서 전문연구요원으로 활동중인 AI 개발자의 삽질 일지입니다! 이해한 내용을 정리하는 용도로 만들었으니, 틀린 내용이 있으면 자유롭게 의견 남겨주세요!

,