AlphaDropout
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Uno strato di dropout Alpha.
Alpha Dropout è un Dropout
che mantiene la media e la varianza degli input ai loro valori originali, al fine di garantire la proprietà autonormalizzante anche dopo questo dropout. Alpha Dropout si adatta bene alle unità lineari esponenziali scalate impostando casualmente le attivazioni sul valore di saturazione negativo.
Fonte: Reti neurali autonormalizzanti: https://arxiv.org/abs/1706.02515
Dichiarazione
@noDerivative
public let probability: Double
Inizializza un livello AlphaDropout
con una probability
configurabile.
Precondizione
la probabilità deve essere un valore compreso tra 0 e 1 (incluso).
Dichiarazione
public init(probability: Double)
Parametri
probability | La probabilità che un nodo cada. |
Aggiunge rumore input
durante l'addestramento e non è operativo durante l'inferenza.
Dichiarazione
@differentiable
public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-11-12 UTC.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-11-12 UTC."],[],[]]