Swish

सार्वजनिक वर्ग स्विश

स्विश सक्रियण फ़ंक्शन। swish(x) = x * sigmoid(x) .

स्विश सक्रियण फ़ंक्शन जो x*sigmoid(x) लौटाता है। यह एक सुचारू, गैर-मोनोटोनिक फ़ंक्शन है जो गहरे नेटवर्क पर लगातार ReLU से मेल खाता है या उससे बेहतर प्रदर्शन करता है, यह ऊपर से असीमित और नीचे से सीमाबद्ध है।

उदाहरण उपयोग:

     Operand<TFloat32> input = tf.constant(new float[]
                                        {-20, -1.0, 0.0, 1.0, 20});
     Swish<TFloat32> swish = new Swish<>(tf);
     Operand<TFloat32> result = swish.call(input);
     // result = [-4.1223075e-08f, -2.6894143e-01f,  0.0000000e+00f,
     //          7.3105860e-01f,  2.0000000e+01f ]

 

सार्वजनिक निर्माता

स्विश (ऑप्स टीएफ)
एक स्विश सक्रियण बनाता है, swish(x) = x * sigmoid(x) .

सार्वजनिक तरीके

ऑपरेंड <टी>
कॉल ( ऑपरेंड <T> इनपुट)
सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

विरासत में मिली विधियाँ

सार्वजनिक निर्माता

सार्वजनिक स्विश (ऑप्स टीएफ)

एक स्विश सक्रियण बनाता है, swish(x) = x * sigmoid(x) .

स्विश सक्रियण फ़ंक्शन जो x*sigmoid(x) लौटाता है। यह एक सुचारू, गैर-मोनोटोनिक फ़ंक्शन है जो गहरे नेटवर्क पर लगातार ReLU से मेल खाता है या उससे बेहतर प्रदर्शन करता है, यह ऊपर से असीमित और नीचे से सीमाबद्ध है।

पैरामीटर
tf टेंसरफ़्लो ऑप्स

सार्वजनिक तरीके

सार्वजनिक ऑपरेंड <T> कॉल ( ऑपरेंड <T> इनपुट)

सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

पैरामीटर
इनपुट इनपुट टेंसर
रिटर्न
  • सक्रियण के लिए ऑपरेंड