1. Gradient Descent의 종류 Stochastic gradient descent -Update with the gradient computed from a single sample Mini-batch gradient descent -Update with the gradient computed from a subset of data Batch gradient descent -Update with the gradient computed from the whole data 경사하강법(Gradient Descent) 경사하강법은 비용함수를 최소화하는 방향으로 가중치를 업데이트하는 방법을 의미한다. 이때 비용함수란 데이터의 실제값과 모델의 예측값의 차이를 일컫는다. 학습률(Learning rate)은..