-
최적화 알고리즘 - SGD, 네스테로프, AdaGrad, RMSProp, Adam
최적화 알고리즘 - SGD, 네스테로프, AdaGrad, RMSProp, Adam 신경망의 손실 함수가 복잡한 경우, 학습의 기본 최적화 알고리즘인 경사 하강법(Gradient Descent)과 미니 배치 훈련 방식으로 변형된 확률적 경사 하강법(Stochastic Gradient Descent, 이하 SGD)만으로는 최적해를 찾기 어려울뿐더러 학습 속도 또한 느리다. 이러한 한계를 극복하기 위해 확률적 경사 하강법을 변형한 많은 알고리즘이 제안되었다. 그중 주요 최적화 알고리즘인 SGD 모멘텀, 네스테로프 모멘텀, AdaGrad, RMSProp, Adam을 살펴보도록 하자. 확률적 경사 하강법의 문제점 확률적 경사 하강법의 개선 알고리즘들을 살펴보기 전에, 확률적 경사 하강법에는 어떠한 문제점이 있는지..
ML&DL/ML DL 기본기
2024. 1. 6.
-
일차결합, 일차종속, 일차독립
일차결합, 일차종속, 일차독립 일차결합 일차결합(Linear Combination)의 정의는 다음과 같다. 벡터공간 $V$의 공집합이 아닌 부분공간 $S$에 속하는 유한 개의 벡터 $u_1, ... , u_k$와 유한 개의 스칼라 $a_1, ... , a_k$에 대하여 다음과 같은 벡터 $v$를 $S$의 일차결합(Linear combination)이라 한다. $$ v = a_1u_1 + ... + a_ku_k $$ 이때, $v$는 벡터 $u_1,...,u_k$의 일차결합이며 $a_1,...,a_k$를 계수(Coefficient)라고 한다. * 여기서, 정의에 따라 벡터 한 개와 스칼라의 곱 또한 일차결합에 해당함에 유의하자. 부분 공간의 정의에 따라, $S$의 모든 일차결합은 $V$에 속한다. 증명) $..
ML&DL/Math for ML
2024. 1. 1.