kelas akhir publik ResourceSparseApplyAdagrad
Perbarui entri yang relevan di '*var' dan '*accum' sesuai dengan skema adagrad.
Itu untuk baris yang memiliki grad, kami memperbarui var dan accum sebagai berikut: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Kelas Bersarang
kelas | ResourceSparseApplyAdagrad.Options | Atribut opsional untuk ResourceSparseApplyAdagrad |
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
statis <T memperluas TType > ResourceSparseApplyAdagrad | |
ResourceSparseApplyAdagrad.Options statis | pembaruanSlots (pembaruan BooleanSlots) |
ResourceSparseApplyAdagrad.Options statis | useLocking (penguncian penggunaan Boolean) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Nilai Konstan: "ResourceSparseApplyAdagrad"
Metode Publik
public static ResourceSparseApplyAdagrad buat ( Lingkup cakupan , Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> grad, Operand <? extends TNumber > indeks, Opsi... opsi)
Metode pabrik untuk membuat kelas yang membungkus operasi ResourceSparseApplyAdagrad baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
akumulasi | Harus dari Variabel(). |
lr | Kecepatan pembelajaran. Pasti skalar. |
lulusan | Gradien. |
indeks | Vektor indeks ke dalam dimensi pertama var dan accum. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru ResourceSparseApplyAdagrad
ResourceSparseApplyAdagrad.Options statis publik useLocking (Boolean useLocking)
Parameter
gunakan Penguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tersebut tidak terdefinisikan, namun mungkin menunjukkan lebih sedikit pertentangan. |
---|