AlfaDropout
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Uma camada de eliminação Alpha.
Alpha Dropout é um Dropout
que mantém a média e a variância das entradas em seus valores originais, de forma a garantir a propriedade de autonormalização mesmo após esse dropout. Alpha Dropout se adapta bem às unidades lineares exponenciais em escala, definindo aleatoriamente as ativações para o valor de saturação negativo.
Fonte: Redes Neurais Auto-Normalizantes: https://arxiv.org/abs/1706.02515
Declaração
@noDerivative
public let probability: Double
Inicializa uma camada AlphaDropout
com uma probability
configurável.
Condição prévia
a probabilidade deve ser um valor entre 0 e 1 (inclusive).
Declaração
public init(probability: Double)
Parâmetros
probability | A probabilidade de um nó cair. |
Adiciona ruído à input
durante o treinamento e não funciona durante a inferência.
Declaração
@differentiable
public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2024-11-12 UTC.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-11-12 UTC."],[],[]]