ReLU

lớp công khai ReLU

Kích hoạt Đơn vị Tuyến tính Chỉnh lưu (ReLU).

Với các giá trị mặc định, điều này trả về kích hoạt ReLU tiêu chuẩn: max(x, 0) , mức tối đa theo phần tử là 0 và tensor đầu vào.

Việc sửa đổi các tham số mặc định cho phép bạn sử dụng các ngưỡng khác 0, thay đổi giá trị tối đa của kích hoạt và sử dụng bội số đầu vào khác 0 cho các giá trị dưới ngưỡng.

Ví dụ:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Hằng số

trôi nổi ALPHA_DEFAULT
trôi nổi MAX_VALUE_DEFAULT
trôi nổi THRESHOLD_DEFAULT

Nhà xây dựng công cộng

ReLU (Ops tf)
Tạo một ReLU mới với alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , ngưỡng= THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alpha, float maxValue, ngưỡng float)
Tạo một ReLU mới

Phương pháp công khai

Toán hạng <T>
gọi (đầu vào Toán hạng <T>)
Nhận hoạt động tính toán để kích hoạt.

Phương pháp kế thừa

Hằng số

float cuối cùng tĩnh công khai ALPHA_DEFAULT

Giá trị không đổi: 0,0

float cuối cùng tĩnh công khai MAX_VALUE_DEFAULT

Giá trị không đổi: NaN

float cuối cùng tĩnh công khai THRESHOLD_DEFAULT

Giá trị không đổi: 0,0

Nhà xây dựng công cộng

ReLU công khai (Ops tf)

Tạo một ReLU mới với alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , ngưỡng= THRESHOLD_DEFAULT ,

Thông số
tf hoạt động của TensorFlow

ReLU công khai (Ops tf, float alpha, float maxValue, ngưỡng float)

Tạo một ReLU mới

Thông số
tf hoạt động của TensorFlow
alpha chi phối độ dốc cho các giá trị thấp hơn ngưỡng.
giá trị tối đa đặt ngưỡng bão hòa (giá trị lớn nhất mà hàm sẽ trả về).
ngưỡng giá trị ngưỡng của hàm kích hoạt mà dưới đó các giá trị sẽ bị giảm bớt hoặc được đặt thành 0.

Phương pháp công khai

lệnh gọi Toán hạng công khai <T> (đầu vào Toán hạng <T>)

Nhận hoạt động tính toán để kích hoạt.

Thông số
đầu vào tensor đầu vào
Trả lại
  • Toán hạng để kích hoạt