항상 같이 고민해주시는 포샷아아님 감사합니다! ㅎㅎ 음 그러면 혹시 단순 로지스틱 회귀 (한번의 시그모이드 함수만 거친) 의 경우는 : 선형 결정경계를 갖고 , 뉴럴넷에 활성화함수로 사용되는 시그모이드 함수는 비선형 이며 : 비선형 결정경계 를 갖는다. 이렇게 이해해도 될까요? 또한 위와 같은 논리라면... 다른 활성화 함수인 tanh, ReLU,.. 등등도 아래와 같이 단순히 사용할때는, 선형 결정경계를 가지며 h(x) = e^(theta.transpose * x) - e^-(theata.transpose * x) / e^(theta.transpose * x) + e^-(theata.transpose * x) 뉴럴넷의 활성화 함수로 사용될때, 비선형 결정경계를 갖는다고 이해해도 될까요? tanh function 의 shape 만 놓고 보면.. sigmoid 와 크게 다를바가 없어서... 그런 생각이 문득 들어서요! ㅎㅎㅎ
댓글 3개