public class AdaMax<Model: Differentiable & KeyPathIterable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
Pengoptimal AdaMax.
Varian Adam berdasarkan norma tak terhingga.
Referensi: Bagian 7 dari “Adam - Metode Optimasi Stokastik”
Pernyataan
public typealias Model = Model
Kecepatan pembelajaran.
Pernyataan
public var learningRate: Float
Tingkat peluruhan digunakan untuk memperkirakan momen pertama (rata-rata) gradien.
Pernyataan
public var beta1: Float
Tingkat peluruhan digunakan untuk memperkirakan norma tak terhingga yang tertimbang secara eksponensial.
Pernyataan
public var beta2: Float
Skalar kecil ditambahkan ke penyebut untuk meningkatkan stabilitas numerik.
Pernyataan
public var epsilon: Float
Penurunan kecepatan pembelajaran.
Pernyataan
public var decay: Float
Jumlah langkahnya.
Pernyataan
public var step: Int
Momen pertama Libra.
Pernyataan
public var firstMoments: Model.TangentVector
Norma bobot tak terhingga yang berbobot secara eksponensial.
Pernyataan
public var infinityNorm: Model.TangentVector
Catatan: Parameter default mengikuti yang disediakan di makalah.
Pernyataan
public init( for model: __shared Model, learningRate: Float = 0.002, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
Pernyataan
public required init(copying other: AdaMax, to device: Device)