본문 바로가기

분류 전체보기55

문과생을 위한 딥러닝 수학 - 기본편 (2) 지수함수, 로그함수 딥러닝 신경망 학습에서 시그모이드 함수(Sigmoid Function)를 활성화함수로 사용한다. 시그모이드 함수는 1/1+exp(-x) 로 나타나는데 여기서 exp(-x) exponential function으로 자연상수e(약2.71)에 대한 지수함수를 의미한다. exp(-2)일 경우 약 2.71의 제곱.. 시그모이드 함수의 사용 이유는 비선형적으로 출력값을 매끄럽게 하기 위한 것이며 자세한 내용은 지난 포스팅을 참고하면 된다. 왜 밑을 e인 자연로그함수를 사용하는가 하냐면 큰 수의 복잡한 계산을 할 때 계산을 단수화하기 위해서 사용된다. 특히 자연로그를 사용했을 때 미적분의 계산이 간편하다고 한다. 기울기를 계산하거나 오차역전파에 대한 계산을 할 때 미분을 사용한다.자연로그(ln)의 역함수는 지수함수인.. 2018. 1. 8.
문과생도 이해하는 딥러닝 (11) - 가중치 감소, 드롭아웃 2017/09/27 - 문과생도 이해하는 딥러닝 (1) - 퍼셉트론 Perceptron2017/10/18 - 문과생도 이해하는 딥러닝 (2) - 신경망 Neural Network2017/10/25 - 문과생도 이해하는 딥러닝 (3) - 오차 역전파, 경사하강법2017/12/24 - 문과생도 이해하는 딥러닝 (4) - 신경망구현, 활성화함수, 배치2017/12/26 - 문과생도 이해하는 딥러닝 (5) - 신경망 학습 실습2018/01/05 - 문과생도 이해하는 딥러닝 (6) - 오차역전파법 실습 12018/01/05 - 문과생도 이해하는 딥러닝 (7) - 오차역전파법 실습 22018/01/07 - 문과생도 이해하는 딥러닝 (8) - 신경망 학습 최적화2018/01/07 - 문과생도 이해하는 딥러닝 (9) .. 2018. 1. 7.
문과생도 이해하는 딥러닝 (10) - 배치 정규화 2017/09/27 - 문과생도 이해하는 딥러닝 (1) - 퍼셉트론 Perceptron2017/10/18 - 문과생도 이해하는 딥러닝 (2) - 신경망 Neural Network2017/10/25 - 문과생도 이해하는 딥러닝 (3) - 오차 역전파, 경사하강법2017/12/24 - 문과생도 이해하는 딥러닝 (4) - 신경망구현, 활성화함수, 배치2017/12/26 - 문과생도 이해하는 딥러닝 (5) - 신경망 학습 실습2018/01/05 - 문과생도 이해하는 딥러닝 (6) - 오차역전파법 실습 12018/01/05 - 문과생도 이해하는 딥러닝 (7) - 오차역전파법 실습 22018/01/07 - 문과생도 이해하는 딥러닝 (8) - 신경망 학습 최적화2018/01/07 - 문과생도 이해하는 딥러닝 (9) .. 2018. 1. 7.
문과생도 이해하는 딥러닝 (9) - 신경망 초기 가중치 설정 2017/09/27 - 문과생도 이해하는 딥러닝 (1) - 퍼셉트론 Perceptron2017/10/18 - 문과생도 이해하는 딥러닝 (2) - 신경망 Neural Network2017/10/25 - 문과생도 이해하는 딥러닝 (3) - 오차 역전파, 경사하강법2017/12/24 - 문과생도 이해하는 딥러닝 (4) - 신경망구현, 활성화함수, 배치2017/12/26 - 문과생도 이해하는 딥러닝 (5) - 신경망 학습 실습2018/01/05 - 문과생도 이해하는 딥러닝 (6) - 오차역전파법 실습 12018/01/05 - 문과생도 이해하는 딥러닝 (7) - 오차역전파법 실습 22018/01/07 - 문과생도 이해하는 딥러닝 (8) - 신경망 학습 최적화 이전 포스팅에서는 최적화 기법들을 살펴보면서 최적의 가.. 2018. 1. 7.