Perbarui entri yang relevan di '*var' dan '*accum' sesuai dengan skema adagrad.
Itu untuk baris yang memiliki grad, kami memperbarui var dan accum sebagai berikut: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Kelas Bersarang
kelas | SparseApplyAdagrad.Options | Atribut opsional untuk SparseApplyAdagrad |
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
Keluaran <T> | sebagai Keluaran () Mengembalikan pegangan simbolik tensor. |
statis <T memperluas TType > SparseApplyAdagrad <T> | |
Keluaran <T> | keluar () Sama seperti "var". |
statis SparseApplyAdagrad.Options | pembaruanSlots (pembaruan BooleanSlots) |
statis SparseApplyAdagrad.Options | useLocking (penguncian penggunaan Boolean) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
Keluaran publik <T> sebagai Keluaran ()
Mengembalikan pegangan simbolik tensor.
Masukan ke operasi TensorFlow adalah keluaran dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static SparseApplyAdagrad <T> buat ( Lingkup lingkup , Operan <T> var, Operan <T> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Operan <? extends TNumber > indeks, Opsi ... pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseApplyAdagrad baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
akumulasi | Harus dari Variabel(). |
lr | Kecepatan pembelajaran. Pasti skalar. |
epsilon | Faktor konstan. Pasti skalar. |
lulusan | Gradien. |
indeks | Vektor indeks ke dalam dimensi pertama var dan accum. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari SparseApplyAdagrad
public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)
Parameter
gunakan Penguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tersebut tidak terdefinisikan, namun mungkin menunjukkan lebih sedikit pertentangan. |
---|
Perbarui entri yang relevan di '*var' dan '*accum' sesuai dengan skema adagrad.
Itu untuk baris yang memiliki grad, kami memperbarui var dan accum sebagai berikut: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Kelas Bersarang
kelas | SparseApplyAdagrad.Options | Atribut opsional untuk SparseApplyAdagrad |
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
Keluaran <T> | sebagai Keluaran () Mengembalikan pegangan simbolik tensor. |
statis <T memperluas TType > SparseApplyAdagrad <T> | |
Keluaran <T> | keluar () Sama seperti "var". |
statis SparseApplyAdagrad.Options | pembaruanSlots (pembaruan BooleanSlots) |
statis SparseApplyAdagrad.Options | useLocking (penguncian penggunaan Boolean) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
Keluaran publik <T> sebagai Keluaran ()
Mengembalikan pegangan simbolik tensor.
Masukan ke operasi TensorFlow adalah keluaran dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static SparseApplyAdagrad <T> buat ( Lingkup lingkup , Operan <T> var, Operan <T> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Operan <? extends TNumber > indeks, Opsi ... pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseApplyAdagrad baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
akumulasi | Harus dari Variabel(). |
lr | Kecepatan pembelajaran. Pasti skalar. |
epsilon | Faktor konstan. Pasti skalar. |
lulusan | Gradien. |
indeks | Vektor indeks ke dalam dimensi pertama var dan accum. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari SparseApplyAdagrad
public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)
Parameter
gunakan Penguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tersebut tidak terdefinisikan, namun mungkin menunjukkan lebih sedikit pertentangan. |
---|
Perbarui entri yang relevan di '*var' dan '*accum' sesuai dengan skema adagrad.
Itu untuk baris yang memiliki grad, kami memperbarui var dan accum sebagai berikut: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Kelas Bersarang
kelas | SparseApplyAdagrad.Options | Atribut opsional untuk SparseApplyAdagrad |
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
Keluaran <T> | sebagai Keluaran () Mengembalikan pegangan simbolik tensor. |
statis <T memperluas TType > SparseApplyAdagrad <T> | |
Keluaran <T> | keluar () Sama seperti "var". |
statis SparseApplyAdagrad.Options | pembaruanSlots (pembaruan BooleanSlots) |
statis SparseApplyAdagrad.Options | useLocking (penguncian penggunaan Boolean) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
Keluaran publik <T> sebagai Keluaran ()
Mengembalikan pegangan simbolik tensor.
Masukan ke operasi TensorFlow adalah keluaran dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static SparseApplyAdagrad <T> buat ( Lingkup lingkup , Operan <T> var, Operan <T> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Operan <? extends TNumber > indeks, Opsi ... pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseApplyAdagrad baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
akumulasi | Harus dari Variabel(). |
lr | Kecepatan pembelajaran. Pasti skalar. |
epsilon | Faktor konstan. Pasti skalar. |
lulusan | Gradien. |
indeks | Vektor indeks ke dalam dimensi pertama var dan accum. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari SparseApplyAdagrad
public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)
Parameter
gunakan Penguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tersebut tidak terdefinisikan, namun mungkin menunjukkan lebih sedikit pertentangan. |
---|