07. Activation Functions :: 2017/11/10 16:59
Activation Functions
(활성화 함수 or 출력 함수(transfer functions))
활성화 함수는 노드에서 입력값에 기반하여 어떤 출력값을 생성할지를 결정한다. Sigmoid 활성화 함수가 가장 대중적이며, ReLU가 현재 가장 많이 사용되고 있다. DeepLearning4J에서 활성화 함수는 layer level에 설정되고, 해당 레이어의 모든 뉴런들에 적용된다.
지원되는 활성화 함수는 다음과 같다.
- CUBE
- ELU
- HARDSIGMOID
- HARDTANH
- IDENTITY
- LEAKYRELU
- RATIONALTANH
- RELU
- RRELU
- SIGMOID
- SOFTMAX
- SOFTPLUS
- SOFTSIGN
- TANH
다음과 같이 활성화 함수를 설정할 수 있다.
layer(2, new OutputLayer.Builder(LossFunctions.LossFunction.NEGATIVELOGLIKELIHOOD).activation(Activation.SOFTMAX)
Custom layers, activation functions and loss functions
Deeplearning4j 는 Custom Layer, 활성화 함수(activation functions), 손실 함수(loss functions)를 지원한다.
Trackback Address :: http://www.yongbi.net/trackback/792
-
toptvantenna.com
Tracked from toptvantenna.com | 2023/04/05 09:32 | DELGreat Architect & Artist -
-
toko baju surabaya
Tracked from toko baju surabaya | 2023/04/07 15:59 | DELGreat Architect & Artist -
-
toptvantenna reviewer on medium
Tracked from toptvantenna reviewer on medium | 2023/04/10 16:53 | DELGreat Architect & Artist -
-
message jasma swanson on behance
Tracked from message jasma swanson on behance | 2023/04/10 19:40 | DELGreat Architect & Artist -
-
what's difference: wifi extender vs booster
Tracked from what's difference: wifi extender vs booster | 2023/04/13 21:05 | DELGreat Architect & Artist -
-
pictures about arts
Tracked from pictures about arts | 2023/04/16 14:46 | DELGreat Architect & Artist -