เทนเซอร์โฟลว์:: ปฏิบัติการ:: เซลู

#include <nn_ops.h>

คำนวณเชิงเส้นเอ็กซ์โพเนนเชียลที่ปรับขนาด: scale * alpha * (exp(features) - 1)

สรุป

ถ้า < 0 scale * features เป็นอย่างอื่น

เพื่อใช้ร่วมกับ `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN' . For correct dropout, use tf.contrib.nn.alpha_dropout`

ดู โครงข่ายประสาทเทียมที่ทำให้เป็นมาตรฐานด้วยตนเอง

ข้อโต้แย้ง:

ผลตอบแทน:

  • Output : เทนเซอร์การเปิดใช้งาน

ตัวสร้างและผู้ทำลาย

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

คุณลักษณะสาธารณะ

activations
operation

งานสาธารณะ

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

คุณลักษณะสาธารณะ

การเปิดใช้งาน

::tensorflow::Output activations

การดำเนินการ

Operation operation

งานสาธารณะ

เซลู

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

โหนด

::tensorflow::Node * node() const 

ตัวดำเนินการ::tensorflow::อินพุต

 operator::tensorflow::Input() const 

ตัวดำเนินการ::tensorflow::เอาต์พุต

 operator::tensorflow::Output() const