Des classes
Activation <T étend TNumber > | Classe de base abstraite pour les activations Remarque : L'attribut |
ELU <T étend TFloating > | Unité linéaire exponentielle. |
Exponentiel <T étend TFloating > | Fonction d'activation exponentielle. |
HardSigmoid <T étend TFloating > | Activation sigmoïde dure. |
Linéaire <U étend TNumber > | Fonction d'activation linéaire (pass-through). |
ReLU <T étend TNumber > | Activation de l'unité linéaire rectifiée (ReLU). |
SELU <T étend TFloating > | Unité linéaire exponentielle mise à l'échelle (SELU). |
Sigmoïde <T étend TFlotant > | Activation sigmoïde. |
Softmax <T étend TFloating > | Softmax convertit un vecteur réel en vecteur de probabilités catégorielles. |
Softplus <T étend TFloating > | Fonction d'activation Softplus, softplus(x) = log(exp(x) + 1) . |
Softsign <T étend TFloating > | Fonction d'activation Softsign, softsign(x) = x / (abs(x) + 1) . |
Swish <T étend TFloating > | Fonction d'activation Swish. |
Tanh <T étend TFloating > | Fonction d'activation de la tangente hyperbolique. |