728x90 반응형 SGD1 확률적 경사 하강법 (SGD, Stochastic Gradient Descent) 확률적 경사 하강법 (SGD, Stochastic Gradient Descent)머신러닝과 딥러닝에서 가장 중요한 최적화 알고리즘 중 하나인 확률적 경사 하강법(SGD, Stochastic Gradient Descent)에 대해 알아보겠습니다.1. 경사 하강법(Gradient Descent)이란?경사 하강법(Gradient Descent, GD)은 손실 함수(Loss Function)를 최소화하기 위해 파라미터를 조정하는 최적화 기법입니다. 보통 머신러닝 모델이 학습할 때, 손실(loss)을 줄이는 방향으로 가중치(weight)를 업데이트하는 방식으로 사용됩니다.2. 확률적 경사 하강법(SGD)란?SGD는 경사 하강법의 한 변형으로, 전체 데이터셋을 사용하지 않고 랜덤하게 선택한 하나의 데이터 포인트(샘.. 2025. 3. 27. 이전 1 다음 728x90 반응형