AI

ReLU

Beomsu Koh 2023. 7. 20.
- [[Deep Learning]]에서 사용하는 활성화 함수

ReLU (Rectified Linear Unit) 함수는 활성화 함수 중 하나로, 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0 이하이면 0을 출력하는 함수입니다

f(x) = max(0, x)

sigmoid 함수보다 ReLU의 장점

신경망의 맥락에서는 sigmoid 함수가 활성화 함수로 전통적으로 사용되었습니다.

1. 기울기 소실 문제 (Vanishing Gradient Problem)

시그모이드 함수는 출력값이 0 또는 1에 가까워질수록 그래프의 기울기가 매우 작아져서, 역전파(Back-propagation) 과정에서 가중치의 업데이트가 거의 이루어지지 않는 기울기 소실 문제가 발생합니다.
반면, ReLU 함수는 출력값이 0보다 큰 경우 기울기가 항상 1이므로 이 문제를 해결합니다

2. 계산 효율성

ReLU 함수는 시그모이드 함수와 비교하여 계산이 간단합니다.
시그모이드 함수는 지수 함수를 포함하므로 계산 비용이 더 큽니다

3. 희소성 (Sparsity)

ReLU 함수는 0 이하의 값을 모두 0으로 만들어 줍니다.
이는 신경망에서 활성화된 뉴런의 수를 줄이므로 모델의 희소성을 증가시키고, 이는 일반적으로 모델의 성능을 향상시킵니다

부족한 점이나 잘못 된 점을 알려주시면 시정하겠습니다 :>

'AI' 카테고리의 다른 글

RuntimeWarning invalid value encountered in subtract  (0) 2023.07.28
왜 딥러닝이 뜨고 있을까  (0) 2023.07.20
신경망  (0) 2023.07.20
역전파(Back-propagation)  (0) 2023.07.19
Back-propagation and Autograd  (0) 2023.07.18

댓글