경사하강법

· 딥러닝
1. 순전파(forward propagation) 위와 같은 신경망을 가정했을 때 각 은닉층에서의 출력은 아래와 같다. 첫번째 층 $$ z_{11}= w_{11}x_{1}+w_{14}x_{2} $$ $$ z_{12}= w_{12}x_{1}+w_{13}x_{2} $$ $$ h_{11}(z_{11})= \phi (z_{11}) $$ $$ h_{12}(z_{12})= \phi (z_{12}) $$ 두 번째 층 $$ z_{21}= w_{21}h_{11}(z)+w_{24}h_{12}(z) $$ $$ z_{22}= w_{22}h_{11}(z)+w_{23}h_{12}(z) $$ $$ h_{21}(z_{21})= \phi (z_{21}) $$ $$ h_{22}(z_{22})= \phi (z_{22}) $$ 따라서$\h..
wacku
'경사하강법' 태그의 글 목록