Deep Learning (10) 썸네일형 리스트형 Gradient Descent 본 포스트는 Andrew Ng의 강의를 듣고 요약했습니다. 추가로 연결지어 보면 좋은 부분을 함께 정리할 예정입니다. 02. Gradient Descent Recap : Logistic Regression algorithm - Cost function : $$J(w, b) = \frac{1}{m} \sum_{i=1}^m L(\hat{y}^{(i)}, y^{(i)}) = -\frac{1}{m} \sum_{i=1}^m [y^{(i)}\log\hat{y}^{(i)} + (1-y^{(i)}) \log (1-\hat{y}^{(i)})]$$ -> 매개변수 w와 b가 훈련 set을 잘 예측하는지 봄. -> $J(w,b)$를 가장 작게 하는 $w,b$를 찾는 것을 원함. Gradient Descent Illustrat.. Neural Networks and Deep Learning - Logistic Regression 본 글은 Andrew Ng의 강의를 듣고 필요한 부분을 정리했습니다. Notation을 다르게 사용했습니다.01. Logistic Regression - 이진분류 (0, 1)에 주로 사용되는 방법론Single variable case : Given $\boldsymbol{x}$, want $\hat{y_i} = P(y = 1|X = x_i)$ where $\boldsymbol{x} = (x_1, x_2, \cdots, x_n) \in \mathbb{R}^{n}$ and $x_i \in \mathbb{R}$- parameters : $w \in \mathbb{R}, b \in \mathbb{R}$,- output : $\hat{\boldsymbol{y}} = w \boldsymbol{x} + b$단지 w.. 이전 1 2 다음