텐서플로우:: 작전:: 셀루
#include <nn_ops.h>
스케일링된 지수 선형 계산: scale * alpha * (exp(features) - 1)
요약
< 0이면 scale * features
수행합니다.
`initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') 과 함께 사용됩니다 . For correct dropout, use
.
자체 정규화 신경망을 참조하세요.
인수:
- 범위: 범위 개체
보고:
-
Output
: 활성화 텐서.
생성자와 소멸자 | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
공개 속성 | |
---|---|
activations | |
operation |
공공 기능 | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
공개 속성
활성화
::tensorflow::Output activations
작업
Operation operation
공공 기능
셀루
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
마디
::tensorflow::Node * node() const
연산자::텐서플로우::입력
operator::tensorflow::Input() const
연산자::텐서플로우::출력
operator::tensorflow::Output() const