AlphaDécrochage
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Une couche de suppression Alpha.
Alpha Dropout est un Dropout
qui maintient la moyenne et la variance des entrées à leurs valeurs d'origine, afin de garantir la propriété d'auto-normalisation même après cet abandon. Alpha Dropout s'adapte bien aux unités linéaires exponentielles mises à l'échelle en définissant de manière aléatoire les activations sur la valeur de saturation négative.
Source : Réseaux de neurones auto-normalisés : https://arxiv.org/abs/1706.02515
Déclaration
@noDerivative
public let probability: Double
Initialise une couche AlphaDropout
avec une probability
configurable.
Condition préalable
la probabilité doit être une valeur comprise entre 0 et 1 (inclus).
Déclaration
public init(probability: Double)
Paramètres
probability | La probabilité qu'un nœud abandonne. |
Ajoute du bruit à input
pendant l'entraînement et ne fonctionne pas pendant l'inférence.
Déclaration
@differentiable
public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/12 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/12 (UTC)."],[],[]]