Putus Sekolah Alfa
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Lapisan putus sekolah Alpha.
Alpha Dropout adalah Dropout
yang menjaga mean dan varians input ke nilai aslinya, untuk memastikan properti normalisasi diri bahkan setelah dropout ini. Alpha Dropout cocok untuk Scaled Exponential Linear Units dengan mengatur aktivasi secara acak ke nilai saturasi negatif.
Sumber: Jaringan Neural Normalisasi Mandiri: https://arxiv.org/abs/1706.02515
Pernyataan
@noDerivative
public let probability: Double
Menginisialisasi lapisan AlphaDropout
dengan probability
yang dapat dikonfigurasi.
Prasyarat
probabilitas harus bernilai antara 0 dan 1 (inklusif).
Pernyataan
public init(probability: Double)
Parameter
probability | Kemungkinan sebuah node putus. |
Menambahkan gangguan pada input
selama pelatihan, dan tidak boleh dilakukan selama inferensi.
Pernyataan
@differentiable
public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2024-11-12 UTC.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-11-12 UTC."],[],[]]