Wyrzucenie Alpha
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Warstwa odpadająca Alpha.
Porzucenie alfa to Dropout
, które utrzymuje średnią i wariancję danych wejściowych na ich oryginalnych wartościach, aby zapewnić właściwość samonormalizacji nawet po tym porzuceniu. Alpha Dropout dobrze pasuje do skalowanych wykładniczych jednostek liniowych, losowo ustawiając aktywacje na ujemną wartość nasycenia.
Źródło: Samonormalizujące się sieci neuronowe: https://arxiv.org/abs/1706.02515
Deklaracja
@noDerivative
public let probability: Double
Inicjuje warstwę AlphaDropout
z konfigurowalnym probability
.
Warunek wstępny
prawdopodobieństwo musi mieć wartość z zakresu od 0 do 1 (włącznie).
Deklaracja
public init(probability: Double)
Parametry
probability | Prawdopodobieństwo wypadnięcia węzła. |
Dodaje szum do input
podczas uczenia i nie działa podczas wnioskowania.
Deklaracja
@differentiable
public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2024-11-12 UTC.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2024-11-12 UTC."],[],[]]