ReLU

सार्वजनिक वर्ग ReLU

रेक्टिफाइड लीनियर यूनिट (ReLU) सक्रियण।

डिफ़ॉल्ट मानों के साथ, यह मानक ReLU सक्रियण लौटाता है: max(x, 0) , तत्व-वार अधिकतम 0 और इनपुट टेंसर।

डिफ़ॉल्ट पैरामीटर को संशोधित करने से आप गैर-शून्य सीमा का उपयोग कर सकते हैं, सक्रियण का अधिकतम मान बदल सकते हैं, और सीमा से नीचे के मानों के लिए इनपुट के गैर-शून्य गुणक का उपयोग कर सकते हैं।

उदाहरण के लिए:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

स्थिरांक

तैरना अल्फा_डिफॉल्ट
तैरना MAX_VALUE_DEFAULT
तैरना THRESHOLD_DEFAULT

सार्वजनिक निर्माता

ReLU (ऑपरेशन tf)
अल्फा= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , थ्रेशोल्ड= THRESHOLD_DEFAULT , के साथ एक नया ReLU बनाता है।
ReLU (ऑप्स टीएफ, फ्लोट अल्फा, फ्लोट मैक्सवैल्यू, फ्लोट थ्रेशोल्ड)
एक नया ReLU बनाता है

सार्वजनिक तरीके

ऑपरेंड <टी>
कॉल ( ऑपरेंड <T> इनपुट)
सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम फ़्लोट ALPHA_DEFAULT

स्थिर मान: 0.0

सार्वजनिक स्थैतिक अंतिम फ़्लोट MAX_VALUE_DEFAULT

स्थिर मान: NaN

सार्वजनिक स्थैतिक अंतिम फ़्लोट THRESHOLD_DEFAULT

स्थिर मान: 0.0

सार्वजनिक निर्माता

सार्वजनिक ReLU (ऑप्स tf)

अल्फा= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , थ्रेशोल्ड= THRESHOLD_DEFAULT , के साथ एक नया ReLU बनाता है।

पैरामीटर
tf टेंसरफ़्लो ऑप्स

सार्वजनिक ReLU (ऑप्स टीएफ, फ्लोट अल्फा, फ्लोट मैक्सवैल्यू, फ्लोट थ्रेशोल्ड)

एक नया ReLU बनाता है

पैरामीटर
tf टेंसरफ़्लो ऑप्स
अल्फा सीमा से कम मूल्यों के लिए ढलान को नियंत्रित करता है।
अधिकतम मूल्य संतृप्ति सीमा निर्धारित करता है (फ़ंक्शन द्वारा लौटाया जाने वाला सबसे बड़ा मान)।
सीमा सक्रियण फ़ंक्शन का थ्रेशोल्ड मान जिसके नीचे मान कम कर दिए जाएंगे या शून्य पर सेट कर दिए जाएंगे।

सार्वजनिक तरीके

सार्वजनिक ऑपरेंड <T> कॉल ( ऑपरेंड <T> इनपुट)

सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

पैरामीटर
इनपुट इनपुट टेंसर
रिटर्न
  • सक्रियण के लिए ऑपरेंड