💪 Today I Learned

Deep Learning

  • Neural network에서 과적합을 방지하는 방법

    • Drop out : 연결된 노드 몇 개 삭제. 즉, 가중치를 없애 학습이 잘 안되도록 방해
    • Weight decay : 가중치 갱신 시 0과 1 사이 임의의 값을 곱해 갱신
  • DNN back propagation 시 발생하는 문제

    • Vanishing gradient : 역전파할수록 도함수(기울기) 값이 줄어들기 때문에 에러가 앞쪽으로 전달되지 않는 현상
    • ReLU 등의 성능 좋은 활성화 함수 선택 필요
  • Momentum

    • local minimum 에 빠지는 문제 해결

🏃 한마디

딥러닝은 수업 들을 때마다 항상 새롭다.