Activation Function 활성화 함수 | (2024-09-27) |
1. 활성화 함수 (Activation Function)
ㅇ 신경망에서, 입력 신호를 변환하여 출력 신호를 만드는, 비선형 함수
ㅇ 비선형성을 도입하기 위해, 활성화 함수가 사용됨
- 복잡한 패턴 학습
- 신호의 강도 조절
- 출력값의 범위 정규화 등이 가능
ㅇ (뉴런 기능의 수학적 모델화)
- 입력 데이터에 대해,
- 가중치를 적용하고, 이 가중치의 합을 계산한 후,
- 활성화 함수를 통해, 최종 출력을 결정토록 함
2. 활성화 함수의 주요 종류
ㅇ 시그모이드 함수 (Sigmoid Function)
[# σ(x) = \frac{1}{1+e^{-x}} #]
- 값이 0 ~ 1 사이로 압축
- 다중 클래스 분류에 사용
ㅇ 소프트맥스 함수 (Softmax Function)
- 확률값 출력
- 다중 클래스 분류에 사용
ㅇ ReLU (Rectified Linear Unit)
[# ReLU(x) = max(0,x) #]
- 기울기 소실(Vanishing Gradient) 문제 완화
- 대부분의 은닉층에서 사용
ㅇ 하이퍼볼릭 탄젠트 함수 (tanh) 등
"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     
[정보통신기술용어해설]        편집·운영 (
차재복)          
편집 이력          
편집 격려 (소액 후원)